CN108810418B - 图像处理方法、装置、移动终端及计算机可读存储介质 - Google Patents
图像处理方法、装置、移动终端及计算机可读存储介质 Download PDFInfo
- Publication number
- CN108810418B CN108810418B CN201810777660.9A CN201810777660A CN108810418B CN 108810418 B CN108810418 B CN 108810418B CN 201810777660 A CN201810777660 A CN 201810777660A CN 108810418 B CN108810418 B CN 108810418B
- Authority
- CN
- China
- Prior art keywords
- preview image
- composition
- target
- detection
- foreground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 24
- 238000012545 processing Methods 0.000 title claims description 42
- 239000000203 mixture Substances 0.000 claims abstract description 177
- 238000000034 method Methods 0.000 claims abstract description 20
- 238000001514 detection method Methods 0.000 claims description 67
- 238000013528 artificial neural network Methods 0.000 claims description 41
- 239000013598 vector Substances 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 3
- 238000000059 patterning Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 24
- 238000012549 training Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 241000282326 Felis catus Species 0.000 description 3
- 238000003705 background correction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/633—Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
- H04N23/635—Region indicators; Field of view indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本申请涉及一种图像处理方法和装置、移动终端、计算机可读存储介质。所述方法包括:获取待处理的预览图像;识别所述预览图像的场景信息;确定所述场景信息对应的构图模式;根据所述构图模式对预览图像进行构图,使得处理后的图像具有较高的观赏性。
Description
技术领域
本申请涉及计算机应用领域,特别是涉及一种图像处理方法、装置、移动终端及计算机可读存储介质。
背景技术
随着移动终端的不断发展,尤其是智能手机设备的出现,几乎所有的移动终端设备都具有拍照功能。但是,大多数用户没有专业的摄影技能,不能合理的运用构图,设置参数,从而无法拍出观赏性较高的照片,降低了用户体验度。
发明内容
本申请实施例提供一种图像处理方法、装置、移动终端及计算机可读存储介质,可以提高图像的观赏性。
一种图像处理方法,包括:
获取待处理的预览图像;
识别所述预览图像的场景信息;
确定所述场景信息对应的构图模式;
根据所述构图模式对所述预览图像进行构图。
一种图像处理装置,包括:
获取模块,用于待处理的预览图像;
识别模块,用于识别所述预览图像的场景信息;
确定模块,用于确定所述场景信息对应的构图模式;
构图模块,用于根据所述构图模式对所述预览图像进行构图。
一种移动终端,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行所述的图像处理方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现所述的图像处理方法的步骤。
本申请实施例中图像处理方法、装置、移动终端及计算机可读存储介质,通过获取待处理的预览图像;识别所述预览图像的场景信息;确定所述场景信息对应的构图模式;根据所述构图模式对所述预览图像进行构图,使得处理后的图像具有较高的观赏性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一个实施例中图像处理方法的流程图;
图2为一个实施例中神经网络的架构示意图;
图3为一个实施例中拍摄场景的类别示意图;
图4为一个实施例的基于神经网络对预览图像的场景信息进行识别的方法的流程图;
图5为另一个实施例中神经网络的架构示意图;
图6为另一个实施例基于神经网络对预览图像的场景信息进行识别的方法的流程图;
图7为一个实施例中预览图像中前景目标的边界框示意图;
图8为一个实施例中根据场景信息确定预览图像的构图模式的方法的流程图;
图9为另一个实施例中根据场景信息确定预览图像的构图模式的方法的流程图;
图10为一个实施例中根据场景信息和构图模式对预览图像进行构图的方法的流程图;
图11为一个实施例中图像处理装置的结构框图;
图12A为一个实施例中移动终端的内部结构示意图;
图12B为一个实施例中服务器的内部结构示意图;
图13为一个实施例中图像处理电路的示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
图1为一个实施例中图像处理方法的流程图。如图1所示,一种图像处理方法,包括步骤102至步骤108。
步骤102:获取待处理的预览图像。
本实施例中,待处理的预览图像可以为连续多帧预览图像,连续多帧预览图像可以是连续两帧及两帧以上的预览图像。连续多帧预览图像可以是指计算机设备的摄像头在预设时间内采集的多帧预览图像。例如,计算机设备的摄像头在0.1秒内采集了3帧预览图像,则可以将这3帧预览图像作为连续多帧预览图像。
一实施例中,计算机设备还设置有多个预览窗口,其每个预览窗口显示相应的一帧预览图像。
步骤104:识别预览图像的场景信息。
本实施例中,基于神经网络识别预览图像的场景信息。应当理解地,神经网络可以为卷积神经网络(Convolutional Neural Network,CNN),CNN是指在传统的多层神经网络的基础上发展起来的一种针对图像分类和识别的一种神经网络模型,相对与传统的多层神经网络,CNN引入了卷积算法和池化算法。其中,卷积算法是指将局部区域内的数据进行加权叠加的一种数学算法,池化算法是指将局部区域内的数据进行采样处理的一种数学算法。
具体而言,CNN模型由卷积层与池化层交替组成,如图2所示,输入层210输入预览图像,卷积层220对输入层的图像的各个局部区域进行图像特征提取,池化层230对卷积层的图像特征进行采样以降低维数,然后再以若干层全连接层240对图像特征进行连接,以最后一层隐藏层250的输出值为最终提取的特征。根据最终提取的特征对场景信息进行识别,其中场景信息包括了背景类别信息和前景目标类别信息。
在一个实施例中,在卷积神经网络的最后一层隐藏层250后配置softmax分析器,通过softmax分析器对上述最终提取的特征进行分析,可以得到图像中的背景对应的类别的概率和前景目标对应类别的概率。
需要说明的是,在采用神经网络对预览图像的背景类别和前景目标进行识别之前,需要对神经网络进行训练,其训练过程包括:
首先,可将包含有至少一个背景训练目标(包括:风景、海滩、雪景、蓝天、绿地、夜景、黑暗、背光、日出/日落、室内、烟火、聚光灯等)和前景训练目标(包括主体对象:人像、婴儿、猫、狗、美食等)的训练图像输入到神经网络中,神经网络根据背景训练目标和前景训练目标进行特征提取,通过SIFT(Scale-invariant feature transform)特征、方向梯度直方图(Histogram of Oriented Gradient,HOG)特征等提取特征,再通过SSD(Single ShotMultiBox Detector)、VGG(Visual Geometry Group)等目标检测算法,对背景训练目标进行检测得到第一预测置信度,对前景训练目标进行检测得到第二预测置信度。第一预测置信度为采用该神经网络预测出的该训练图像中背景区域某一像素点属于该背景训练目标的置信度。第二预测置信度为采用该神经网络预测出的该训练图像中前景区域某一像素点属于该前景训练目标的置信度。训练图像中可以预先标注背景训练目标和前景训练目标,得到第一真实置信度和第二真实置信度。该第一真实置信度表示在该训练图像中预先标注的该像素点属于该背景训练目标的置信度。第二真实置信度表示在该训练图像中预先标注的该像素点属于该前景训练目标的置信度。针对图像中的每个像素点,真实置信度可以表示为1(或正值)和0(或负值),分别用以表示该像素点属于训练目标和不属于训练目标。
其次,求取第一预测置信度与第一真实置信度之间的差异得到第一损失函数,求其第二预测置信度与第二真实置信度之间的差异得到第二损失函数。第一损失函数和第二损失函数均可采用对数函数、双曲线函数、绝对值函数等。
最后,将所述第一损失函数和第二损失函数进行加权求和得到目标损失函数,并根据所述目标损失函数调整所述神经网络的参数,对所述神经网络进行训练。
在一实施例中,如图3所示,训练图像的拍摄场景可包括背景区域的类别、前景目标和其他。背景区域的类别可包括风景、海滩、雪景、蓝天、绿地、夜景、黑暗、背光、日出/日落、室内、烟火、聚光灯等。前景目标可为人像、婴儿、猫、狗、美食等。其他可为文本文档、微距等。
步骤106:确定场景信息对应的构图模式。
一实施例中,场景信息包括背景类别信息和前景目标类别信息。其中,背景类别信息包括风景、海滩、雪景、蓝天、绿地、夜景、黑暗、背光、日出/日落、室内、烟火、聚光灯等;前景类别信息包括人像、婴儿、猫、狗、美食等。
一实施例中,构图模式包括九宫格构图、十字形构图、三角形构图、对角线构图等。
具体而言,不同场景信息对应不同的构图模式。在计算机设备中预先存储了不同场景信息对应的至少一种构图模式,在确定预览图像的场景信息后,计算机设备调用该场景信息对应的构图模式。例如,当场景信息为:风景+人像(即背景类别信息为风景,前景目标类别信息为人像)时,计算机设备可以调用九宫格构图模式,以使人像处于该预览图像中的黄金分割位置;当场景信息为:风景+美食(即背景类别信息为风景,前景目标类别信息为美食)时,计算机设备可以调用三角形构图模式,以突出前景目标美食。
一实施例中,同一场景信息可以对应多种构图模式。例如,风景+人像的场景信息可以对应九宫格构图模式,还可以对应三角形构图模式。具体而言,可根据前景目标类别信息对构图模式进一步筛选,例如,在风景+人像的场景信息中,若人像的数量较多(3个以上),可以选用九宫格构图模式,使每个人像处于九宫格构图模式要求的显示位置;若人像的数量为一个,则可以选择三角形构图模式,使该人像突出显示。
步骤108:根据构图模式对预览图像进行构图。
本实施例中,不同的场景信息对应相同或不同的构图模式,根据不同的构图模式可实现对预览图像的差异性构图处理。例如,构图模式包括九宫格构图、十字形构图、三角形构图、对角线构图等。其中,九宫格构图模式属于黄金分割式的一种形式,即把预览图像平均分成九块,在中心块上四个角的点,用任意一点的位置来安排主体目标位置。
需要说明的是,计算机设备中预先储存了不同场景信息对应的不同构图模式,并且根据检测到的场景信息和对应的构图模式对预览图像进行构图。
上述图像处理方法,通过获取待处理的预览图像;识别所述预览图像的场景信息;确定所述场景信息对应的构图模式;根据所述构图模式对预览图像进行构图,实现了对预览图像的场景信息的自动识别,以及不同的场景信息自动匹配相应的构图模式,从而根据不同场景信息和相应的构图模式来对预览图像进行后续的拍照调整提示,使得处理后的图像具有较高的观赏性。
在一实施例中,上述图像处理方法还包括:采用多个预览窗口分别显示构图处理后的预览图像。具体而言,在计算机设备的屏幕中提供显示图像的多个预览窗口,并且每个预览窗口设置为显示一帧预览图像的窗口。更具体地,可通过所述多个预览窗口来分别显示进行了构图处理的预览图像。一实施例中,预览图像采用不同的构图模式,每一帧预览图像在构图处理后通过一预览窗口进行显示,用户可根据每个预览窗口显示的图像比较预览图像的构图效果,并根据比较结果存储其中一帧的预览图像。
在一实施例中,场景信息包括背景类别信息和前景目标类别信息,如图4所示,识别预览图像的场景信息的方法,包括步骤402至步骤410。:
步骤402:采用神经网络的基础网络对预览图像进行特征提取,得到特征数据。
步骤404:将特征数据输入到神经网络的分类网络对预览图像的背景进行分类检测,输出第一置信度图。其中,第一置信度图中的每个像素点表示预览图像中每个像素点属于背景检测目标的置信度。
步骤406:将特征数据输入到神经网络的目标检测网络对预览图像的前景目标进行检测,输出第二置信度图。其中,第二置信度图中的每个像素点表示预览图像中每个像素点属于前景检测目标的置信度。
步骤408:根据第一置信度图和第二置信度图进行加权得到预览图像的最终置信度图。
步骤410:根据所述最终置信度图确定预览图像的背景类别信息和前景目标类别信息。
本实施例中,如图5所示,神经网络包括基础网络510、分类网络520和目标检测网络530。其中,利用基础网络510提取预览图像的特征数据;再将特征数据分别输入至分类网络520和目标检测网络530,通过分类网络520对预览图像的背景进行分类检测,得到待第一置信度图,以及通过目标检测网络530对预览图像的前景进行目标检测,得第二置信度图;根据第一置信度图和第二置信度图进行加权得到预览图像的最终置信度图;根据最终置信度图确定预览图像的背景类别信息和前景目标类别信息。
需要说明的是,在统计学中,一个概率样本的置信区间是对这个样本的某个总体参数的区间估计。置信区间展现的是这个参数的真实值有一定概率落在测量结果的周围的程度。置信度是被测量参数的测量值的可信程度。
在一实施例中,场景信息还包括前景目标位置信息,如图6所示,识别预览图像的场景信息的方法,包括步骤602至步骤606。
步骤602:采用神经网络的目标检测网络对预览图像的前景目标位置进行检测,输出边界框检测图。其中,边界框检测图包含预览图像中各像素点的对应向量,所述对应向量表示对应的像素点与对应检测边界框的位置关系,所述检测边界框为采用神经网络在预览图像中检测到的前景目标的边界框。
步骤604:根据第一置信度图、第二置信度图和边界框检测图进行加权得到预览图像的最终置信度图。
步骤606:根据最终置信度图确定预览图像的背景类别信息、前景目标类别信息和前景目标位置信息。
具体而言,参见图7,该边界框检测图710包含该边界框中每个像素点的对应向量,该对应向量表示其对应的像素点与对应的边界框位置关系。其中,边界框检测图710中的对应像素点的向量确定第一四维向量和第二四维向量。该第一四维向量为x=(x1,x2,x3,x4),该第一四维向量中的元素为该像素点至前景目标的边界框图710的上、下、左、右边界的距离;该第二四维向量为x’=(x1’,x2’,x3’,x4’),该第二四维向量中的元素分别为该像素点至与该像素点对应的预览图像的边界框检测图700的上、下、左、右边界的距离。可以理解地,通过检测边界框检测图710中所有像素点对应的第二四维向量,即可确定前景目标位置。在一实施例中,神经网络的目标检测网络对预览图像的前景目标进行检测,输出第二置信度图和边界框检测图710,根据第一置信度图、第二置信度图和边界框检测710进行加权可得到预览图像的最终置信度图;根据最终置信度图可确定预览图像的背景类别信息、前景目标类别信息和前景目标位置信息。通过进一步地,前景目标的边界框检测图710的面积为X=(x1+x2)*(x3+x4)。需要说明的是,本实施例中的边界框检测图710为矩形框图,在其它实施例中,边界框检测图以为任意形状的框图,在此不做具体限定。
在一实施例中,如图8所示,确定场景信息对应的构图模式,包括步骤802至步骤804。
步骤802:根据场景信息生成相关的构图特征数据。
步骤802:当构图特征数据符合预设构图特征数据时,从预设构图模式中获取构图特征数据对应的构图模式。
本实施例中,场景信息包括背景类别信息和前景目标类别信息;构图特征数据包括背景类别数据和前景目标的大小、所处位置、背景环境等。具体而言,计算机设备预先存储了大量多样的预设构图模式,每个预设构图模式对应匹配的预设构图特征数据,当构图特征数据符合预设构图特征数据时,从预设构图模式中获取构图特征数据对应的构图模式。例如,当预览图像的场景信息为风景+人像的情景时,生成该场景信息相关的构图特征数据(人像大小、位置及风景类别等),将该构图特征数据与预先存储的预设构图特征数据比较分析,当构图特征数据与预设构图特征数据匹配时,从预设构图模式中获取所述构图特征数据对应的风景+人像的构图模式。具体而言,计算机设备中预存了大量优秀的不同场景信息对应(例如风景+人像)的构图模式,每个构图模式对应一组构图特征数据,因此,通过对比分析构图特征数据,可确定预览图像的最佳构图模式。
在一实施例中,确定场景信息对应的构图模式,包括:根据背景类别信息和前景目标类别信息确定预览图像的构图模式。具体而言,计算机设备在存储器中预先存储至少一个场景类型,当确定了场景类型后,计算机设备根据该场景类型调用对应的构图模式。例如,当背景类别信息为风景,前景目标类别信息为人像,即风景+人像的场景类型时,对应的构图模式为:九宫格构图模式;根据该场景信息和该构图模式的构图处理结果为:确定该预览图像的三分之一处位置为各人像的构图位置。当背景类别信息为风景,前景目标类别信息为美食,即风景+美食的场景类型时,对应的构图模式为:九宫格构图模式;根据该场景信息和该构图模式的构图处理结果为:确定该预览图像的中心位置为美食的构图位置。
在一实施例中,如图9所示,场景信息包括前景目标类别信息,确定场景信息对应的构图模式,包括步骤902至步骤906。
步骤902:根据前景目标类别信息确定预览图像的主体目标。
步骤904:获取主体目标的区域面积。
步骤906:根据区域面积确定预览图像的构图模式。
本实施例中,采用神经网络的目标检测网络检测前景目标的类别,以确定预览图像的主体目标,并输出边界框检测图,以获取主体目标的区域面积,根据主体目标的区域面积确定主体目标的构图位置。具体而言,参见图7,主体目标的区域面积可通过主体目标的边界框检测图获取,当主体目标的区域面积大于某一预设面积时,可确定对应的预览图像为近景拍摄,此时可确定该预览图像的构图模式。例如,采用三角形构图模式,把主体目标安排在该预览图像的中心位置上,以突显该主体目标。在其他实施例中,还可以采用三分法构图模式,将主体目标安排在该预览图像的黄金分割线处,并将其他前景目标安排在黄金分割线附近,以使该预览图像显得紧凑有力。
在一实施例中,一种图像处理方法还包括:根据场景信息和构图模式对预览图像进行构图。具体而言,不同的场景信息对应相同或不同的构图模式,根据场景信息和构图模式可实现对预览图像的构图处理。例如,当场景信息为:风景+人像(多个),对应的构图模式为:九宫格构图模式;根据该场景信息和该构图模式的构图处理结果为:确定该预览图像的三分之一处位置为各人像的构图位置。当场景信息为:风景+美食,对应的构图模式为:九宫格构图模式;根据该场景信息和该构图模式的构图处理结果为:确定该预览图像的中心位置为美食的构图位置。
需要说明的是,计算机设备中预先储存了不同场景信息对应的不同构图模式,并且根据检测到的场景信息和对应的构图模式对预览图像进行构图。
一实施例中,构图模式包括九宫格构图、十字形构图、三角形构图、对角线构图等。
在一实施例中,如图10所示,场景信息包括前景类别信息和前景目标位置信息,根据场景信息和构图模式对预览图像进行构图,包括步骤1002至步骤1004。
步骤1002:根据前景目标类别信息和构图模式确定前景目标的预设构图位置。
步骤1004:根据预设构图位置和前景目标位置信息确定前景目标的构图位置。
具体而言,对于不同的前景目标类别和构图模式,其预设构图位置不同。例如,,当前景目标类别是人像时,根据九宫格构图模式,该人像的预设构图位置可以在图像画面的三分之一处;当前景目标类别是美食时,该美食的预设构图位置可以在图像画面的中心位置。
根据预设构图位置和前景目标位置信息可确定前景目标的实际构图位置。例如,通过边界框检测图可获取前景目标位置信息(x1’,x2’,x3’,x4’)(参见图7中的第二四维向量),根据上述确定的该前景目标的预设构图位置为(y1’,y2’,y3’,y4’),该前景目标的实际构图位置为(z1’,z2’,z3’,z4’),则可以采用如下公式(1)(2)(3)(4)计算该前景目标的实际构图位置:
z1’=(x1’+y1’)/2; (1)
z2’=(x2’+y2’)/2; (2)
z3’=(x3’+y3’)/2; (3)
z4’=(x4’+y4’)/2; (4)
本实施例中,根据前景目标位置信息(四维向量的坐标位置)以及该前景目标的预设构图位置,计算该前景目标的实际构图位置,将包括不同前景目标的不同构图模式的构图引导方案统一为一种方案,使得拍摄者学习操作起来更为简单易行,提升了用户体验。
图11为一个实施例中图像处理装置的结构框图。如图11所示,一种图像处理装置,包括获取模块1110、识别模块1120、确定模块1130和构图模块1140。其中:
获取模块1110:用于获取待处理的预览图像。
识别模块1120:用于识别所述预览图像的场景信息。
确定模块1130:用于确定所述场景信息对应的构图模式。
构图模块1140:用于根据所述构图模式对所述预览图像进行构图。
本申请实施例中,通过获取模块1110获取待处理的预览图像;识别模块1120识别所述预览图像的场景信息;确定模块1130确定所述场景信息对应的构图模式;构图模块1140根据所述构图模式对所述预览图像进行构图,实现了对预览图像的场景信息的自动识别,以及不同的场景信息自动匹配相应的构图模式,从而根据不同的构图模式来对预览图像进行后续的拍照调整提示,使得处理后的图像具有较高的观赏性。
在一个实施例中,识别模块1120,还包括:
特征提取单元,用于采用神经网络的基础网络对预览图像进行特征提取,得到特征数据。
分类单元:用于采用神经网络的分类网络对预览图像的背景进行分类检测,输出第一置信度图;所述第一置信度图中的每个像素点表示预览图像中每个像素点属于背景检测目标的置信度。
目标检测单元,用于采用神经网络的目标检测网络对预览图像的前景目标进行检测,输出第二置信度图;所述第二置信度图中的每个像素点表示预览图像中每个像素点属于前景检测目标的置信度。
计算单元:用于根据所述第一置信度图和所述第二置信度图进行加权得到预览图像的最终置信度图。
第一确定单元,根据所述最终置信度图确定预览图像的背景类别信息和前景目标类别信息。
在一个实施例中,目标检测单元,还包括:
目标位置检测子单元:用于采用神经网络的目标检测网络对预览图像的前景目标位置进行检测,输出边界框检测图,所述边界框检测图包含预览图像中各像素点的对应向量,所述对应向量表示对应的像素点与对应检测边界框的位置关系,所述检测边界框为采用神经网络在所述待检测图像中检测到的前景目标的边界框。
在一个实施例中,计算单元还用于根据所述第一置信度图、第二置信度图和边界框检测图进行加权得到预览图像的最终置信度图。
在一个实施例中,第一确定单元还用于根据所述最终置信度图确定预览图像的背景类别信息、前景目标类别信息和前景目标位置信息。
在一个实施例中,确定模块1130,还包括:
生成单元,用于根据所述场景信息生成相关的构图特征数据。
第二确定单元,用于当所述构图特征数据符合预设构图特征数据时,从预设构图模式中获取所述构图特征数据对应的构图模式。
在一个实施例中,确定模块1130,还包括:
第三确定单元,用于根据所述背景类别信息和所述前景目标类别信息确定预览图像的构图模式。
在一个实施例中,确定模块1130,还包括:
第四确定单元,用于根据所述前景目标类别信息确定预览图像的主体目标。
面积获取单元,用于获取主体目标的区域面积。
第五确定单元,用于根据所述区域面积确定预览图像的构图模式。
在一实施例中,构图模块1140还用于根据场景信息和构图模式对预览图像进行构图。
在一实施例中,构图模块1140,还包括:
第六确定单元,用于根据所述前景目标类别信息和所述构图模式确定前景目标的预设构图位置。
第七确定单元,用于根据所述预设构图位置和所述前景目标位置信息确定前景目标的构图位置。
应该理解的是,虽然图1、图4、图6、图8、图9、图10的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1、图4、图6、图8、图9、图10中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
上述图像处理装置中各个模块的划分仅用于举例说明,在其他实施例中,可将图像处理装置按照需要划分为不同的模块,以完成上述图像处理装置的全部或部分功能。
本申请实施例还提供一种移动终端。该移动终端包括存储器及处理器,该存储器中储存有计算机程序,该计算机程序被该处理器执行时,使得该处理器执行该图像处理方法的步骤。
本申请实施例还提供一种计算机可读存储介质。一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现该图像处理方法的步骤。
图12A为一个实施例中移动终端的内部结构示意图。如图12A所示,该移动终端包括通过系统总线连接的处理器、存储器和网络接口。其中,该处理器用于提供计算和控制能力,支撑整个移动终端的运行。存储器用于存储数据、程序等,存储器上存储至少一个计算机程序,该计算机程序可被处理器执行,以实现本申请实施例中提供的适用于移动终端的无线网络通信方法。存储器可包括非易失性存储介质及内存储器。非易失性存储介质存储有操作系统和计算机程序。该计算机程序可被处理器所执行,以用于实现以下各个实施例所提供的一种神经网络模型处理方法或图像处理方法。内存储器为非易失性存储介质中的操作系统计算机程序提供高速缓存的运行环境。网络接口可以是以太网卡或无线网卡等,用于与外部的移动终端进行通信。该移动终端可以是手机、平板电脑或者个人数字助理或穿戴式设备等。
图12B为一个实施例中服务器(或云端等)的内部结构示意图。如图12B所示,该服务器包括通过系统总线连接的处理器、非易失性存储介质、内存储器和网络接口。其中,该处理器用于提供计算和控制能力,支撑整个移动终端的运行。存储器用于存储数据、程序等,存储器上存储至少一个计算机程序,该计算机程序可被处理器执行,以实现本申请实施例中提供的适用于移动终端的无线网络通信方法。存储器可包括非易失性存储介质及内存储器。非易失性存储介质存储有操作系统和计算机程序。该计算机程序可被处理器所执行,以用于实现以下各个实施例所提供的一种神经网络处理方法或图像处理方法。内存储器为非易失性存储介质中的操作系统计算机程序提供高速缓存的运行环境。网络接口可以是以太网卡或无线网卡等,用于与外部的移动终端进行通信。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。本领域技术人员可以理解,图12B中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的服务器的限定,具体的服务器可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
本申请实施例中提供的神经网络模型处理装置或图像处理装置中的各个模块的实现可为计算机程序的形式。该计算机程序可在移动终端或服务器上运行。该计算机程序构成的程序模块可存储在移动终端或服务器的存储器上。该计算机程序被处理器执行时,实现本申请实施例中所描述方法的步骤。
一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行神经网络模型处理方法或图像处理方法。
本申请实施例还提供一种移动终端。上述移动终端中包括图像处理电路,图像处理电路可以利用硬件和/或软件组件实现,可包括定义ISP(Image Signal Processing,图像信号处理)管线的各种处理单元。图13为一个实施例中图像处理电路的示意图。如图13所示,为便于说明,仅示出与本申请实施例相关的图像处理技术的各个方面。
如图13所示,图像处理电路包括ISP处理器1340和控制逻辑器1350。成像设备1310捕捉的图像数据首先由ISP处理器1340处理,ISP处理器1340对图像数据进行分析以捕捉可用于确定和/或成像设备1310的一个或多个控制参数的图像统计信息。成像设备1310可包括具有一个或多个透镜1312和图像传感器1314的照相机。图像传感器1314可包括色彩滤镜阵列(如Bayer滤镜),图像传感器1314可获取用图像传感器1314的每个成像像素捕捉的光强度和波长信息,并提供可由ISP处理器1340处理的一组原始图像数据。传感器1320(如陀螺仪)可基于传感器1320接口类型把采集的图像处理的参数(如防抖参数)提供给ISP处理器1340。传感器1320接口可以利用SMIA(Standard Mobile Imaging Architecture,标准移动成像架构)接口、其它串行或并行照相机接口或上述接口的组合。
此外,图像传感器1314也可将原始图像数据发送给传感器1320,传感器1320可基于传感器1320接口类型把原始图像数据提供给ISP处理器1340,或者传感器1320将原始图像数据存储到图像存储器1330中。
ISP处理器1340按多种格式逐个像素地处理原始图像数据。例如,每个图像像素可具有8、10、12或14比特的位深度,ISP处理器1340可对原始图像数据进行一个或多个图像处理操作、收集关于图像数据的统计信息。其中,图像处理操作可按相同或不同的位深度精度进行。
ISP处理器1340还可从图像存储器1330接收图像数据。例如,传感器1320接口将原始图像数据发送给图像存储器1330,图像存储器1330中的原始图像数据再提供给ISP处理器1340以供处理。图像存储器1330可为存储器装置的一部分、存储设备、或移动终端内的独立的专用存储器,并可包括DMA(Direct Memory Access,直接直接存储器存取)特征。
当接收到来自图像传感器1314接口或来自传感器1320接口或来自图像存储器1330的原始图像数据时,ISP处理器1340可进行一个或多个图像处理操作,如时域滤波。处理后的图像数据可发送给图像存储器1330,以便在被显示之前进行另外的处理。ISP处理器1340从图像存储器1330接收处理数据,并对所述处理数据进行原始域中以及RGB和YCbCr颜色空间中的图像数据处理。ISP处理器1340处理后的图像数据可输出给显示器1370,以供用户观看和/或由图形引擎或GPU(Graphics Processing Unit,图形处理器)进一步处理。此外,ISP处理器1340的输出还可发送给图像存储器1330,且显示器1370可从图像存储器1330读取图像数据。在一个实施例中,图像存储器1330可被配置为实现一个或多个帧缓冲器。此外,ISP处理器1340的输出可发送给编码器/解码器1360,以便编码/解码图像数据。编码的图像数据可被保存,并在显示于显示器1370设备上之前解压缩。编码器/解码器1360可由CPU或GPU或协处理器实现。
ISP处理器1340确定的统计数据可发送给控制逻辑器1350单元。例如,统计数据可包括自动曝光、自动白平衡、自动聚焦、闪烁检测、黑电平补偿、透镜1312阴影校正等图像传感器1314统计信息。控制逻辑器1350可包括执行一个或多个例程(如固件)的处理器和/或微控制器,一个或多个例程可根据接收的统计数据,确定成像设备1310的控制参数及ISP处理器1340的控制参数。例如,成像设备1310的控制参数可包括传感器1320控制参数(例如增益、曝光控制的积分时间、防抖参数等)、照相机闪光控制参数、透镜1312控制参数(例如聚焦或变焦用焦距)、或这些参数的组合。ISP控制参数可包括用于自动白平衡和颜色调整(例如,在RGB处理期间)的增益水平和色彩校正矩阵,以及透镜1312阴影校正参数。
本申请所使用的对存储器、存储、数据库或其它介质的任何引用可包括非易失性和/或易失性存储器。合适的非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM),它用作外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDR SDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种图像处理方法,其特征在于,包括:
获取待处理的预览图像;
识别所述预览图像的场景信息;所述场景信息包括前景目标类别信息、背景类别信息和前景目标位置信息;
确定所述场景信息对应的构图模式;
根据所述构图模式对所述预览图像进行构图;
所述确定所述场景信息对应的构图模式,包括:
根据所述前景目标类别信息确定所述预览图像的主体目标;
获取所述主体目标的区域面积;
根据所述区域面积确定所述预览图像的构图模式;
所述识别所述预览图像的场景信息的方法,包括:
采用神经网络的基础网络对预览图像进行特征提取,得到特征数据;
将所述特征数据输入到所述神经网络的分类网络对预览图像的背景进行分类检测,输出第一置信度图;所述第一置信度图中的每个像素点表示预览图像中每个像素点属于背景检测目标的置信度;
将所述特征数据输入到所述神经网络的目标检测网络对预览图像的前景目标进行检测,输出第二置信度图;所述第二置信度图中的每个像素点表示预览图像中每个像素点属于前景检测目标的置信度;
采用神经网络的目标检测网络对预览图像的前景目标位置进行检测,输出边界框检测图,所述边界框检测图包含预览图像中各像素点的对应向量,所述对应向量表示对应的像素点与对应检测边界框的位置关系,所述检测边界框为采用神经网络在所述预览图像中检测到的前景目标的边界框;
根据所述第一置信度图、第二置信度图和边界框检测图进行加权得到预览图像的最终置信度图;
根据所述最终置信度图确定预览图像的背景类别信息、前景目标类别信息和前景目标位置信息。
2.根据权利要求1所述的方法,其特征在于,所述确定所述场景信息对应的构图模式,还包括:
根据所述场景信息生成相关的构图特征数据;
当所述构图特征数据符合预设构图特征数据时,从预设构图模式中获取所述构图特征数据对应的构图模式。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述场景信息和所述构图模式对所述预览图像进行构图。
4.根据权利要求3所述的方法,其特征在于,所述根据所述场景信息和所述构图模式对所述预览图像进行构图,包括:
根据所述前景目标类别信息和所述构图模式确定前景目标的预设构图位置;
根据所述预设构图位置和所述前景目标位置信息确定前景目标的构图位置。
5.一种图像处理装置,包括:
获取模块,用于获取待处理的预览图像;
识别模块,用于识别所述预览图像的场景信息;所述场景信息包括前景目标类别信息、背景类别信息和前景目标位置信息;
确定模块,用于确定所述场景信息对应的构图模式;
构图模块,用于根据所述构图模式对所述预览图像进行构图;
所述确定模块,包括:
第四确定单元,用于根据所述前景目标类别信息确定所述预览图像的主体目标;
面积获取单元,用于获取所述主体目标的区域面积;
第五确定单元,用于根据所述区域面积确定所述预览图像的构图模式;
还包括:
特征提取单元,用于采用神经网络的基础网络对预览图像进行特征提取,得到特征数据;
分类单元,用于将所述特征数据输入到所述神经网络的分类网络对预览图像的背景进行分类检测,输出第一置信度图;所述第一置信度图中的每个像素点表示预览图像中每个像素点属于背景检测目标的置信度;
目标检测单元,用于将所述特征数据输入到所述神经网络的目标检测网络对预览图像的前景目标进行检测,输出第二置信度图;所述第二置信度图中的每个像素点表示预览图像中每个像素点属于前景检测目标的置信度;
计算单元,用于根据所述第一置信度图和所述第二置信度图进行加权得到预览图像的最终置信度图;
第一确定单元,用于根据所述最终置信度图确定预览图像的背景类别信息和前景目标类别信息;
所述目标检测单元,包括:
目标位置检测子单元,用于采用神经网络的目标检测网络对预览图像的前景目标位置进行检测,输出边界框检测图,所述边界框检测图包含预览图像中各像素点的对应向量,所述对应向量表示对应的像素点与对应检测边界框的位置关系,所述检测边界框为采用神经网络在所述预览图像中检测到的前景目标的边界框;
所述计算单元,还用于根据所述第一置信度图、第二置信度图和边界框检测图进行加权得到预览图像的最终置信度图;
所述第一确定单元,还用于根据所述最终置信度图确定预览图像的背景类别信息、前景目标类别信息和前景目标位置信息。
6.根据权利要求5所述的装置,其特征在于,所述确定模块,还包括:
生成单元,用于根据所述场景信息生成相关的构图特征数据;
第二确定单元,用于当所述构图特征数据符合预设构图特征数据时,从预设构图模式中获取所述构图特征数据对应的构图模式。
7.根据权利要求5所述的装置,其特征在于,
所述构图模块,还用于根据所述场景信息和所述构图模式对所述预览图像进行构图。
8.根据权利要求7所述的装置,其特征在于,所述构图模块,还包括:
第六确定单元,用于根据所述前景目标类别信息和所述构图模式确定前景目标的预设构图位置;
第七确定单元,用于根据所述预设构图位置和所述前景目标位置信息确定前景目标的构图位置。
9.一种移动终端,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至4中任一项所述的图像处理方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述的图像处理方法的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810777660.9A CN108810418B (zh) | 2018-07-16 | 2018-07-16 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
EP19184943.9A EP3598736B1 (en) | 2018-07-16 | 2019-07-08 | Method and apparatus for processing image |
PCT/CN2019/095321 WO2020015558A1 (en) | 2018-07-16 | 2019-07-09 | Method and apparatus for processing image |
US16/506,175 US11233933B2 (en) | 2018-07-16 | 2019-07-09 | Method and device for processing image, and mobile terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810777660.9A CN108810418B (zh) | 2018-07-16 | 2018-07-16 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108810418A CN108810418A (zh) | 2018-11-13 |
CN108810418B true CN108810418B (zh) | 2020-09-11 |
Family
ID=64076964
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810777660.9A Active CN108810418B (zh) | 2018-07-16 | 2018-07-16 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11233933B2 (zh) |
EP (1) | EP3598736B1 (zh) |
CN (1) | CN108810418B (zh) |
WO (1) | WO2020015558A1 (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019146022A (ja) * | 2018-02-21 | 2019-08-29 | オリンパス株式会社 | 撮像装置及び撮像方法 |
WO2019161562A1 (en) * | 2018-02-26 | 2019-08-29 | Intel Corporation | Object detection with image background subtracted |
CN108810418B (zh) * | 2018-07-16 | 2020-09-11 | Oppo广东移动通信有限公司 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
KR102661983B1 (ko) * | 2018-08-08 | 2024-05-02 | 삼성전자주식회사 | 이미지의 인식된 장면에 기반하여 이미지를 처리하는 방법 및 이를 위한 전자 장치 |
US11100325B2 (en) * | 2018-12-07 | 2021-08-24 | International Business Machines Corporation | Photographic results by composition analysis using deep learning neural networks |
CN109831629B (zh) * | 2019-03-14 | 2021-07-02 | Oppo广东移动通信有限公司 | 终端拍照模式的调整方法、装置、终端及存储介质 |
CN109831628B (zh) * | 2019-03-14 | 2021-07-16 | Oppo广东移动通信有限公司 | 终端拍照模式的调整方法、装置、终端及存储介质 |
WO2021168707A1 (zh) * | 2020-02-26 | 2021-09-02 | 深圳市大疆创新科技有限公司 | 对焦方法、装置及设备 |
CN111432122B (zh) * | 2020-03-30 | 2021-11-30 | 维沃移动通信有限公司 | 一种图像处理方法及电子设备 |
DE102020111955A1 (de) * | 2020-05-04 | 2021-11-04 | Airbus Defence and Space GmbH | Gesichtserkennung mit neuronalen Netzen |
CN111935393A (zh) * | 2020-06-28 | 2020-11-13 | 百度在线网络技术(北京)有限公司 | 拍摄方法、装置、电子设备和存储介质 |
CN113949803B (zh) * | 2020-07-16 | 2023-08-25 | 华为技术有限公司 | 拍照方法及电子设备 |
CN115190236B (zh) * | 2021-04-07 | 2024-05-28 | 深圳市万普拉斯科技有限公司 | 图像拍摄方法、装置、计算机设备和存储介质 |
US20230316470A1 (en) * | 2022-01-10 | 2023-10-05 | Samsung Electronics Co., Ltd. | Method for correcting image by device and device therefor |
CN115049853B (zh) * | 2022-04-14 | 2024-06-18 | 鼎云(上海)科技有限公司 | 烟叶卷曲不变特性特征提取方法及存储介质 |
CN115147501B (zh) * | 2022-09-05 | 2022-12-02 | 深圳市明源云科技有限公司 | 图片解压方法、装置、终端设备以及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106295678A (zh) * | 2016-07-27 | 2017-01-04 | 北京旷视科技有限公司 | 神经网络训练与构建方法和装置以及目标检测方法和装置 |
CN106998389A (zh) * | 2017-03-09 | 2017-08-01 | 广东欧珀移动通信有限公司 | 自动构图的控制方法、控制装置及电子装置 |
CN107818313A (zh) * | 2017-11-20 | 2018-03-20 | 腾讯科技(深圳)有限公司 | 活体识别方法、装置、存储介质和计算机设备 |
CN107835364A (zh) * | 2017-10-30 | 2018-03-23 | 维沃移动通信有限公司 | 一种拍照辅助方法及移动终端 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BRPI0905360A2 (pt) | 2008-09-08 | 2015-06-30 | Sony Corp | Aparelho e método de processamento de imagem, programa, e, aparelo de captura de imagem |
KR101643602B1 (ko) * | 2009-06-24 | 2016-07-29 | 삼성전자주식회사 | 구도 가이드 방법 및 장치, 및 디지털 촬영 장치 |
AU2011253982B9 (en) | 2011-12-12 | 2015-07-16 | Canon Kabushiki Kaisha | Method, system and apparatus for determining a subject and a distractor in an image |
KR102045957B1 (ko) * | 2013-01-18 | 2019-11-18 | 삼성전자 주식회사 | 휴대단말의 촬영 방법 및 장치 |
CN104243787B (zh) * | 2013-06-06 | 2017-09-05 | 华为技术有限公司 | 拍照方法、照片管理方法及设备 |
CN104346801B (zh) * | 2013-08-02 | 2018-07-20 | 佳能株式会社 | 图像构图评估装置、信息处理装置及其方法 |
CN103945129B (zh) | 2014-04-30 | 2018-07-10 | 努比亚技术有限公司 | 基于移动终端的拍照预览构图指导方法及系统 |
CN105991925A (zh) * | 2015-03-06 | 2016-10-05 | 联想(北京)有限公司 | 场景构图指示方法和指示装置 |
TWI640199B (zh) * | 2016-06-24 | 2018-11-01 | 聚晶半導體股份有限公司 | 影像擷取裝置及其攝影構圖的方法 |
CN106131418A (zh) * | 2016-07-19 | 2016-11-16 | 腾讯科技(深圳)有限公司 | 一种构图控制方法、装置及拍照设备 |
CN107257439B (zh) * | 2017-07-26 | 2019-05-17 | 维沃移动通信有限公司 | 一种拍摄方法及移动终端 |
KR102438201B1 (ko) * | 2017-12-01 | 2022-08-30 | 삼성전자주식회사 | 사진 촬영과 관련된 추천 정보를 제공하는 방법 및 시스템 |
CN108810418B (zh) | 2018-07-16 | 2020-09-11 | Oppo广东移动通信有限公司 | 图像处理方法、装置、移动终端及计算机可读存储介质 |
-
2018
- 2018-07-16 CN CN201810777660.9A patent/CN108810418B/zh active Active
-
2019
- 2019-07-08 EP EP19184943.9A patent/EP3598736B1/en active Active
- 2019-07-09 WO PCT/CN2019/095321 patent/WO2020015558A1/en active Application Filing
- 2019-07-09 US US16/506,175 patent/US11233933B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106295678A (zh) * | 2016-07-27 | 2017-01-04 | 北京旷视科技有限公司 | 神经网络训练与构建方法和装置以及目标检测方法和装置 |
CN106998389A (zh) * | 2017-03-09 | 2017-08-01 | 广东欧珀移动通信有限公司 | 自动构图的控制方法、控制装置及电子装置 |
CN107835364A (zh) * | 2017-10-30 | 2018-03-23 | 维沃移动通信有限公司 | 一种拍照辅助方法及移动终端 |
CN107818313A (zh) * | 2017-11-20 | 2018-03-20 | 腾讯科技(深圳)有限公司 | 活体识别方法、装置、存储介质和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
US11233933B2 (en) | 2022-01-25 |
US20200021733A1 (en) | 2020-01-16 |
WO2020015558A1 (en) | 2020-01-23 |
CN108810418A (zh) | 2018-11-13 |
EP3598736B1 (en) | 2023-09-13 |
EP3598736A1 (en) | 2020-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108810418B (zh) | 图像处理方法、装置、移动终端及计算机可读存储介质 | |
CN108764370B (zh) | 图像处理方法、装置、计算机可读存储介质和计算机设备 | |
CN108777815B (zh) | 视频处理方法和装置、电子设备、计算机可读存储介质 | |
CN108764208B (zh) | 图像处理方法和装置、存储介质、电子设备 | |
US10990825B2 (en) | Image processing method, electronic device and computer readable storage medium | |
CN110276767B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN108805103B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN108961302B (zh) | 图像处理方法、装置、移动终端及计算机可读存储介质 | |
CN108900769B (zh) | 图像处理方法、装置、移动终端及计算机可读存储介质 | |
US10896323B2 (en) | Method and device for image processing, computer readable storage medium, and electronic device | |
CN108810413B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN110473185B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
WO2019233393A1 (zh) | 图像处理方法和装置、存储介质、电子设备 | |
CN108024107B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN108897786B (zh) | 应用程序的推荐方法、装置、存储介质及移动终端 | |
CN108984657B (zh) | 图像推荐方法和装置、终端、可读存储介质 | |
CN108304821B (zh) | 图像识别方法及装置、图像获取方法及设备、计算机设备及非易失性计算机可读存储介质 | |
CN108875619B (zh) | 视频处理方法和装置、电子设备、计算机可读存储介质 | |
CN108717530B (zh) | 图像处理方法、装置、计算机可读存储介质和电子设备 | |
CN109712177B (zh) | 图像处理方法、装置、电子设备和计算机可读存储介质 | |
CN108804658B (zh) | 图像处理方法和装置、存储介质、电子设备 | |
CN108848306B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN110349163B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 | |
CN110572573A (zh) | 对焦方法和装置、电子设备、计算机可读存储介质 | |
CN108616700B (zh) | 图像处理方法和装置、电子设备、计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1262709 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |