CN109214403A - 图像识别方法、装置及设备、可读介质 - Google Patents
图像识别方法、装置及设备、可读介质 Download PDFInfo
- Publication number
- CN109214403A CN109214403A CN201710546203.4A CN201710546203A CN109214403A CN 109214403 A CN109214403 A CN 109214403A CN 201710546203 A CN201710546203 A CN 201710546203A CN 109214403 A CN109214403 A CN 109214403A
- Authority
- CN
- China
- Prior art keywords
- feature
- feature set
- image
- target object
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 239000013598 vector Substances 0.000 claims description 86
- 238000004422 calculation algorithm Methods 0.000 claims description 25
- 238000013527 convolutional neural network Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 13
- 235000013305 food Nutrition 0.000 claims description 11
- 238000003909 pattern recognition Methods 0.000 claims description 11
- 239000000463 material Substances 0.000 claims description 8
- 230000006399 behavior Effects 0.000 claims description 6
- 241000406668 Loxodonta cyclotis Species 0.000 claims description 3
- 230000005055 memory storage Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 6
- 238000012216 screening Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 239000000047 product Substances 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000686 essence Substances 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000003137 locomotive effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本申请提供一种图像识别方法、装置及设备、可读介质,所述方法包括:获取待识别的图像;获得待识别的图像的特征图像,所述特征图像用于描述待识别的图像的特征;从所获得的特征图像中选取至少两个描述目标对象的特征集;基于所选取的特征集对目标对象进行识别。实施本申请,从特征图像中选取能够描述目标对象的特征时,从所述特征图像内不同区域选取多个特征集,能有效代表图像中不同位置的同类目标对象,因此能更准确地识别出目标对象。
Description
技术领域
本申请涉及图像处理技术领域,尤其涉及图像识别方法、装置及设备、可读介质。
背景技术
随着计算机技术的发展和计算机视觉原理的广泛应用,利用图像识别技术对目标对象进行分类,在无人驾驶汽车、智能冰箱等产品上具有广泛的应用价值。目前的图像识别技术对目标对象进行识别时,一般先采用特征提取模型对含有目标对象的整张图像进行特征提取,生成整张图像的特征图像,该特征图像由所提取的特征组成,所提取的特征包括颜色特征、纹理特征、形状特征、空间关系特征等图像特征中的至少一项,再采用单个固定大小的矩形框将特征图像中描述目标对象(如车,食材等)的特征框出来,进而选取被框出的特征为目标特征,然后将目标特征输入分类模型进行分类。
但是,在某些产品上应用图像识别技术时,拍摄所得的含有目标对象的图像的不同区域可能出现同一目标对象,例如,智能冰箱内的食材大多会被用户随机摆放在冰箱内,拍摄智能冰箱内的食材所得的图像内。目前的图像识别技术在识别这种图像时,易导致错误的识别结果。
发明内容
有鉴于此,本申请提供一种图像识别方法、装置及设备、可读介质。
根据本申请实施例的第一方面,提供一种图像识别方法,包括步骤:
获取待识别的图像;
获得待识别的图像的特征图像,所述特征图像用于描述待识别的图像的特征;
从所获得的特征图像中选取至少两个描述目标对象的特征集;
基于所选取的特征集对目标对象进行识别。
根据本申请实施例的第二方面,提供一种电子设备,包括:
处理器;
存储处理器可执行指令的存储器;
其中,所述处理器耦合于所述存储器,用于读取所述存储器存储的程序指令,并作为响应,执行如下操作:
获取待识别的图像;
获得待识别的图像的特征图像,所述特征图像用于描述待识别的图像的特征;
从所获得的特征图像中选取至少两个描述目标对象的特征集;
基于所选取的特征集对目标对象进行识别。
根据本申请实施例的第三方面,提供一种图像识别装置,包括:
图像获取模块,用于获取待识别的图像;
特征提取模块,用于获得待识别的图像的特征图像,所述特征图像用于描述待识别的图像的特征;
特征选取模块,用于从所获得的特征图像中选取至少两个描述目标对象的特征集;
目标识别模块,用于基于所选取的特征集对目标对象进行识别。
根据本申请实施例的第四方面,提供一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得终端设备执行以上所述的方法。
实施本申请提供的实施例,从特征图像中选取能够描述目标对象的特征时,从所述特征图像内不同区域选取多个特征集,能有效代表图像中不同位置的同类目标对象,因此能更准确地识别出目标对象。
附图说明
图1是本申请一示例性实施例示出的图像识别方法的流程图;
图2a是本申请一示例性实施例示出的用于图像识别的系统的框图;
图2b是本申请另一示例性实施例示出的图像识别方法的交互示意图;
图2c是本申请示例性实施例示出的图像识别方法中的池化操作和调整像素的实现过程的示意图;
图2d从是本申请示例性实施例示出的图像识别方法中的目标识别过程的示意图;
图3是本申请一示例性实施例示出的图像识别装置的逻辑框图;
图4是本申请一示例性实施例示出的图像识别装置的硬件结构图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请。在本申请和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
请参阅图1,图1是本申请一示例性实施例示出的图像识别方法的流程图,该实施例能应用于具有图像处理功能的各种电子设备,可以包括以下步骤S101-S104:
步骤S101、获取待识别的图像。
步骤S102、获得待识别的图像的特征图像,所述特征图像用于描述待识别的图像的特征。
步骤S103、从所获得的特征图像中选取至少两个描述目标对象的特征集。
步骤S104、基于所选取的特征集对目标对象进行识别。
本申请实施例,所获取的图像可以是图像采集模块(如摄像头)直接采集的图像,也可以是经过图像预处理后的图像数据,这里提到的图像预处理可以包括对提高图像识别准确度有益的图像处理,例如:对场景文本图像进行的颜色空间变换,对文本词图像中词图像的位置校正,对字符图像进行的去噪处理等。
对于获得的图像,可以采用卷积神经网络模型、分类器、多级网络结构等特征提取算法,对其进行特征提取,生成特征图像,该特征图像的各区域含有所提取的各种特征。
在某些例子中,对目标对象进行识别时需要定位目标对象的具体位置,为了准确定位到目标对象,可以采用能够有效保留目标对象的位置信息的全卷积神经网络对所获取的图像进行特征提取,该全卷积神经网络可以包括AlexNet、GoogleNet、VGGNet、ResNet或其他卷积神经网络模型的全卷积层。
获得特征图像后,考虑到图像中可能存在大小、形状各异的目标对象,在提取描述目标对象的特征集时可以基于区域,从所获得的特征图像中选取描述目标对象的特征,从特征图像的同一区域内选取的特征构成描述目标对象的一个特征集,区域尺寸不同时,特征集所含的特征量不同,选取的特征集在所述特征图像中所属的区域的尺寸不同。
一般情况下含有目标对象的区域的卷积运算结果大于预定阈值,该预定阈值可以由设计人员在训练分类器和特征提取模型时,通过验证集上正负样本的卷积运算结果的分布来设定,其数值一般大于或等于0且小于1,例如0.3,0.5等,在某些例子中,可以通过以下滑动窗口技术将卷积运算结果大于预定阈值的特征集作为描述目标对象的特征集:
采用多种尺寸的滑动窗口从所获得的特征图像中选出多个候选特征集,滑动窗口的尺寸可以包括8*16,8*8,16*16,16*32,16*8,32*64,32*32,32*16、以及64*32。
对选出的候选特征集进行卷积运算。
将卷积运算结果大于预定阈值的候选特征集选取为描述目标对象的特征集。
实际应用中,卷特征图像可以是全卷积神经网络对所获取的图像进行特征提取后输出的卷积特征块,采用滑动窗口选取描述目标对象的特征集时,可以在卷积特征块上寻找可能存在目标对象的区域。对于卷积特征块上的每一个位置,分别采用尺寸为8*16、8*8、16*16、16*32、16*8、32*64、32*32、32*16和64*32的矩形框(滑动窗口)标记出各矩形区域,其中,矩形框可以用4维向量[cx,cy,w0,h0]等区域标识标记各矩形区域,(cx,cy)表示矩形框的中心点坐标,w0,h0分别表示矩形框的宽度和高度,与矩形框的尺寸对应。
然后提取标记出的每个矩形区域内的特征,将一个矩形区域内的特征组成一个候选特征集,该矩形区域即为该特征集在特征图像(卷积特征块)内所属的区域,然后对每个候选特征集进行卷积运算,确定卷积运算结果大于预定阈值的候选特征集所属的矩形区域为可能存在目标对象的区域,并将卷积运算结果大于预定阈值的候选特征集选取为描述目标对象的特征集,这些最终被选取的特征集还可以基于其所属的矩形区域的尺寸的不同,被划分为不同种类的特征集。在其他例子中,本申请的设计人员还可以根据图像识别的具体应用场景,将滑动窗口的边长、以及不同边长间的比值设置为其他数值,本申请对此不做限制。
在某些例子中,卷积特征块的高度和宽度均较大,如果对于卷积特征块上的每一个位置,分别选用尺寸为8*16、8*8、16*16、16*32、16*8、32*64、32*32、32*16和64*32的矩形框(滑动窗口)标记出各矩形区域,然后提取每个矩形区域内的特征,将构成大量的特征集,进行卷积运算的计算量较大,选取到的描述目标对象的特征集的数目可能也较多,进而会增大图像识别过程的计算量,降低图像识别效率,为了解决这些问题,考虑到描述目标对象的特征集的卷积运算结果大于其他非目标对象的特征集的卷积运算结果,可以将卷积运算结果超过预定阈值的特征集确定为候选特征集,将所确定的候选特征集中,卷积运算结果为前N大的特征集选取为描述目标对象的特征集,N大于1且小于所确定的候选特征集的总数,候选特征集的数目较大时,N可以为300。
实际应用中,可以将从各矩形区域内的特征组成的各特征集输入预定的特征集筛选模型,由该特征集筛选模型对每个特征集进行卷积运算,将卷积运算结果超过预定阈值的特征集确定为候选特征集,将所确定的候选特征集中,卷积运算结果为前N大的特征集选取为描述目标对象的特征集,N大于1且小于所确定的候选特征集的总数,本申请设计人员可以根据应用场景、以及运行本申请的图像识别方法的电子设备的计算能力确定N的具体数值,如300。这里提到的特征集筛选模型可以是深度神经网络模型、多级结构的网络模型、或者基于图像颜色、边缘、超像素特征的概率模型。
在某些场景,所获得的图像内除包括目标对象外,可能还含多种多样的背景信息,这些背景信息会对目标识别造成一定程度的困扰,为了降低背景信息对识别过程的负面影响,可以在目标识别过程中增加上下文特征,所增加的上下文特征包括局部上下文特征和/或全局上下文特征。
实际应用中,可以在从所获得的特征图像中选取描述目标对象的特征集后,从所述特征图像中选取特征集的上下文特征,然后根据所选取的特征集和上下文特征对目标对象进行识别。添加上下文特征后,目标识别过程可以处理与目标对象相关的更多特征,一方面便于识别体积比较小的目标对象,另一方面可以排除不可能的目标对象,比如:船和大海总是在一起,如果检测到船和树木在一起,就说明目标对象识别错误。
在某些例子中,从所述特征图像中选取特征集的上下文特征(特征集的上下文特征可以指特征集中不同描述目标对象的特征分别对应的上下文特征)时,可以在选取好描述目标对象的特征集后,针对选取的每个特征集,可以该特征集所属的区域的中心点为参照点,将该特征集所属的区域的边长增大0.5倍,构成局部上下文特征所属的区域,然后提取该区域的特征为该特征集的局部上下文特征。这样提取局部上下文特征后,特征集的局部上下文特征所属的区域的边长,为所述特征集所属的区域的边长的1.5倍,可以包含与目标对象相关的更多特征,便于识别体积比较小的目标对象。
在提取到描述目标对象的特征集和上下文特征后,可以基于这些特征对目标对象进行识别,如将所提取的描述目标对象的特征集和上下文特征输入训练后的分类器进行目标分类,但是这样操作会面临巨大的计算量的挑战,而且,分类器对超过较大数量的特征进行运算时还容易出现过拟合。为了解决这个问题,本申请可以对特征集、以及所述特征集的上下文特征分别进行池化操作,然后根据所述池化操作所得的特征集和上下文特征,对目标对象进行识别。这里提到的池化,用于降低特征集的维度和出现过拟合的概率,一般是对不同位置的特征进行聚合统计,例如,进行池化操作时,可以用特征集的某个区域的各特征的平均值(或最大值)代替各特征。
在其他例子中,为了进一步提高目标识别效率,可以在对特征集、以及所述特征集的上下文特征分别进行池化操作时,对各特征提取通道所提取的指定特征分别进行池化操作;不同特征提取通道所提取的指定特征在所述特征图像中的坐标不同。如:特征图像为全卷积网络提取的卷积特征块,可以将每个特征集在卷积特征块内所属的区域分割为三部分,在进行池化操作时,单独对全卷积网络的第一特征提取通道提取的第一部分区域内的特征(指定特征)进行池化操作,单独对全卷积网络的第二特征提取通道提取的第二部分区域内的特征(指定特征)进行池化操作,单独对全卷积网络的第三特征提取通道提取的第三部分区域内的特征(指定特征)进行池化操作。这样操作后,一方面对目标进行识别所需的深度神经网络的层数较少,另一方面可以识别到目标对象的相对位置关系,便于准确定位目标对象。
此外为了提高目标识别效率,还可以将池化操作所得的的特征集和上下文特征调整到匹配的像素;然后根据调整后的特征集和上下文特征,对目标对象进行识别。该匹配的像素一般小于每个特征集的像素,本申请设计人员可以根据应用场景、以及运行本申请的图像识别方法的电子设备的计算能力确定匹配的像素,在某些场景,考虑到图像中可能存在大小、形状各异的目标对象,匹配的像素可以包括3*12、12*3、5*10、10*5和7*7中的至少两种。
此外,本申请实施例也可以在基于所选取的特征集对目标对象进行识别时,将所选取的特征集调整到匹配的像素,然后根据调整后的特征集对目标对象进行识别。
如果匹配的像素有多种数值,可以将一种匹配的像素的特征集合上下文特征作为描述目标对象的一个分支的特征,该分支的特征数量为H0×W0×((3×hi×wi)×(C+1)),其中,H0、W0、C0分别代表特征图像(如卷积特征块)的高、宽和通道数,hi×wi∈{3×12,12×3,5×10,10×5,7×7},C表示目标对象的类别数,+1是将背景也算作一个目标类别,hi×wi上每一个位置点都是一个3×(C+1)维的向量,该向量包括3个(C+1)维的向量。
在对提取的特征集和上下文特征顺次进行池化操作和像素调整后,可以将像素调整后的特征输入目标识别模型,目标识别模型在识别目标的过程中对应每一个分支的每个特征集、以及该特征集的上下文特征,都会产生一个类别向量和该特征集所属区域的位置偏移向量。这里提到的目标识别模型可以是分类器之类的分类模型。
其中,类别向量的长度可以为(C+1),每一维向量元素可以表示目标对象属于某一类别的概率pj,j∈{0,...,C},其中0表示背景类。然后目标识别模型根据预定的向量筛选准则来确定一个最终的目标类别向量和目标位置偏移向量。
位置偏移向量可以是4维向量,这个向量的每一维元素表示特征集所属区域的位置偏移向量[Δx,Δy,Δw,Δh],该位置偏移向量对应于4维向量[cx,cy,w0,h0],这里Δx、Δy、Δw和Δh就是cx、cy、w0和h0分别需要调整的偏移量。目标对象所在位置被调整后对应的向量即[cx+w0·Δx,cy+h0·Δy,w0·Δw,h0·Δh]。
如果预定的向量筛选准则为选取最大的向量元素,可以从每个分支的各特征集对应的类别向量中选取向量元素最大的类别向量为最终识别的目标类别向量,然后将该目标类别向量对应的特征集的位置偏移向量为最终识别的位置偏移向量,在某些例子中,选取向量元素最大的类别向量为最终识别的目标类别向量时,可以根据如下公式选取:
其中,score表示类别向量,向量的每一维上的元素表示目标对象属于相应类别的概率,C表示类别数目,A表示分指数(预定像素的种类数)。在某个例子中,有2类目标对象,一类为狗,另一类为猫,那么C=2,类别向量的第一维表示目标对象属于猫这一类别的可能性,第二维表示目标对象属于狗这一类别的可能性,类别向量可以用score=[0.3,0.9]来表示,通过上述公式括号里的第一次求max,可以取0.3和0.9中的最大值。经过第一次求max后,每个分支都有一个最大值,假设为score2,score3,…,通过上述公式中括号外的第二次求max,可以从不同的分支的score2,score3,…中选取最大值为终极最大大值,将选取的终极最大值所属的类别向量确定为能确定目标对象所属类别的目标类别向量。在其他例子中,还可以根据类别向量的所有维度的平均值(mean)、最小值、中位数(median)来确定目标类别向量。
在确定好目标类别向量后,目标识别模型可以将目标类别向量和目标位置偏移向量作为识别结果输出,所述目标类别向量为各特征集对应的类别向量中最大的向量元素所属的类别向量,所述目标位置偏移向量为所述目标类别向量对应的特征集的位置偏移向量。
在某些例子中,目标类别向量为ci,i∈{1,...,C+1},其向量元素并非目标对象属于对应类别的概率值,在输出目标类别向量前,可以通过求softmax将目标类别向量转成概率形式目标类别向量,Softmax的公式如下:
pi为概率形式目标类别向量。
在目标识别模型输出识别结果后,可以得到目标对象所属的类别,进而结合目标类别向量对应的特征集所属区域的初始位置[cx,cy,w0,h0]和识别结果中的目标位置偏移向量,可以得到目标对象在图像中所处的位置:[cx+w0·Δx,cy+h0·Δy,w0·Δw,h0·Δh]。
综上可知,通过本申请实施例的图像识别,可以检测出一幅图像中所有目标对象的类别和位置,如果待识别的图像为拍摄智能冰箱的储物间所得的图像,目标对象为智能冰箱的储物间储存的食材,那么基于图像识别结果,在智能冰箱领域可以进一步进行相关信息的统计,如:统计同一类别的食材的数目、所有类别的食材的数目等,然后基于统计结果可以对食品进行准确有效地智能化管理,如:可以调换冰箱运行模式,始终让食品保持最佳存储状态,可以让用户通过手机或计算机等随时随地了解冰箱里食物的数量、保鲜保质信息,可以提醒用户定时补充食品等。
此外,本申请实施例的图像识别应用于无人驾驶汽车中时,可以准确识别汽车前面的路况,基于路况进行相应的驾驶操作,如:无人驾驶时绕开障碍物等。
请参阅图2a,图2a是本申请一示例性实施例示出的用于实现图像识别的系统200的框图,该系统200适用于具有图像处理功能的各种电子设备,可以包括顺次连接的摄像头210、全卷积神经网络220、特征集生成模块230、特征集筛选模型240、池化操作模块260、像素调整模块270和目标识别模型280,还包括分别与全卷积神经网络220、特征集生成模块230、特征集筛选模型240和池化操作模块260连接的上下文获取模块250。
其中,摄像头210,直接拍摄对应场景的图像,在其他例子中,还可以用图像搜集设备代替摄像头210,从对应区域搜集对应场景的图像。
全卷积神经网络220,对图像采集模块210获取的图像进行特征提取,生成卷积特征块(特征图像)。
特征集生成模块230,用于从卷积特征块中可能存在目标对象的区域提取特征,构成特征集。
特征集筛选模型240,用于从提取的各特征集中筛选出能够较好的描述目标对象的特征集。
上下文获取模块250,用于基于筛选出的每个特征集的所属区域,从卷积特征块中提取筛选出的每个特征集的上下文特征。
池化操作模块260,用于分别对描述目标对象的特征集和进行池化操作,以减少特征量,提高目标识别过程的计算量,进而提高图像识别的准确度。
像素调整模块270,用于分别将池化操作后的特征集和上下文特征调整到匹配的像素。
目标识别模型280,用于基于像素调整后的特征识别出目标对象的类别,在某些例子中,还可以进一步用于定位目标对象在图像内的位置。
以下结合图2a至图2d列举一个应用实例。
在该实例中,本申请的设计人员预先将图像识别应用于智能冰箱,分别选用尺寸为8*16、8*8、16*16、16*32、16*8、32*64、32*32、32*16和64*32的矩形框(滑动窗口),将匹配的像素设置为3*12、12*3、5*10、10*5和7*7这五种,将预定的向量筛选准则定为选取最大的向量元素。
安装在智能冰箱内的摄像头210拍摄智能冰箱内的画面生成待识别的图像(步骤S201),并将图像发送到全卷积神经网络220(步骤S202),全卷积神经网络220对图像进行特征提取生成卷积特征块(S203),并发送卷积特征块到特征集生成模块230和上下文获取模块250(S204、S205),特征集生成模块230采用各种尺寸的矩形框从卷积特征块中提取特征,获得各特征集,存储各特征集在卷积特征块中所属的区域的区域标识(S206),并将获得的特征集发送到特征集筛选模型240(S207),特征筛选模型240通过计算各特征集的卷积选取出能描述目标对象的特征集(S208),并将选取出的特征集发送到上下文获取模块250和池化操作模块260(S209、S210),上下文获取模块250向特征集生成模块230请求能描述目标对象的特征集所属的区域的区域标识(S211),特征集生成模块230响应该请求将对应的区域标识发送给上下文获取模块250(S212),然后上下文获取模块250基于所接收的各区域标识确定能描述目标对象的特征集的局部上下文特征在卷积特征块中所属的区域的区域标识(S213),确定局部上下文特征所属的区域的区域标识时,可以描述目标对象的特征集所属的区域的中心点为中心,将其边长扩大0.5倍。
在步骤S214中,上下文获取模块250基于所确定的区域标识从卷积特征块的对应区域提取局部上下文特征。在其他例子中,还可以将卷积特征块确定为全局上下特征。
在步骤S215中,上下文获取模块250将所提取的上下文特征发送到池化操作模块260。
在步骤S216中,池化操作模块260分别对所接收的特征集和上下文特征进行池化操作。
在步骤S217中,池化操作模块260将池化操作后的特征集和上下文特征输送到像素调整模块270。
在步骤S218中,像素调整模块270分别对应各种匹配的像素,分别将接收的特征集合上下文特征调整到匹配的像素。
在某些例子中,池化操作和调整像素的过程可以参照图2c,图2c中的w和h的乘积代表匹配的像素的具体数值,另外图2c仅示出了一个描述目标对象的特征集的池化操作和调整像素过程,该特征集由第一组特征510、第二组特征520和第三组特征530构成,第一组特征510为全卷积神经网络220的第一特征提取通道提取并输出的特征,第二组特征520为全卷积神经网络220的第二特征提取通道提取并输出的特征,第三组特征530为全卷积神经网络220的第三特征提取通道提取并输出的特征,在对该特征集进行池化操作前,分别按区域将三组特征分别等分为三部分,如图中两条虚线所划分出的三个区域内的特征,位于顶层的为第一部分,两条虚线中间的为第二部分,位于底层的为第三部分。
在对该特征集进行池化操作时,单独对第一组特征510中的第一部分特征进行池化操作,单独对第二组特征520中的第二部分特征进行池化操作,单独对第三组特征530中的第三部分特征进行池化操作。然后分别将单独池化操作生成的特征调整到匹配的像素,生成像素调整后的特征集,由图2c所示的第四组特征540、第五组特征550和第六组特征560组成,第一组特征510被池化操作和调整像素后变成第四组特征540,第二组特征520被池化操作和调整像素后变成第五组特征550,第三组特征530被池化操作和调整像素后变成第六组特征540,其他特征集和上下文特征的池化操作和调整像素过程与图2c所示类似,在此不再赘述。
在步骤S219中,像素调整模块270将调整像素后的特征集和上下文特征输送到目标识别模型280。
在步骤S220中,目标识别模型280基于输入的特征集和上下文特征对目标对象进行识别,并输出目标对象的目标类别向量和目标位置偏移向量。
具体的目标识别过程可以参阅图2d,图2d中的类别向量611、612、613、以及位置偏移向量614、615、616,分别为目标识别模型280对应三个分支(本例子仅示出三个分支)的每个特征集、以及该特征集的上下文特征,所产生的类别向量和位置偏移向量。其中,类别向量611、612、613的长度可以为(C+1),每一维向量元素可以表示目标对象属于某一类别的概率pj,j∈{0,...,C},0表示背景类;位置偏移向量614、615、616可以是4维向量,这个向量的每一维元素表示特征集所属区域的位置偏移向量[Δx,Δy,Δw,Δh]。
目标识别模型280基于预定的向量筛选准则分别对类别向量611、612、613以及未示出的其他类别向量进行筛选,确定一个最终的目标类别向量621和目标位置偏移向量622。
由上述实施例可知,本申请的图像识别方法,从特征图像中选取能够描述目标对象的特征时,从所述特征图像内不同区域选取多个特征集,能有效代表图像中不同位置的同类目标对象,因此能更准确地识别出目标对象。
再者,本申请的图像识别方法,可以针对各目标对象的形状、大小差异,在提取描述目标对象的特征时,从特征图像中大小不同的多个区域选取多个特征集,用像素不同的特征集来分别描述大小和形状各异的目标对象,还可以结合描述目标对象的特征集的局部上下文特征和全局上下文特征对目标对象进行识别,因此,能更准确地获得目标对象的类别、和/或定位到目标对象。而且,通过对描述目标对象的特征集、特征集的局部上下文特征和全局上下文特征进行池化操作和像素调整,可以进一步降低图像识别过程的计算量,提高识别效率。
此外,将本申请实施例的图像识别方法应用到各场景中时,很可能需要面对互联网数据类似的大规模数据,且应用的实时性要求较高,为了满足这些,可以采用C/C++或汇编语言实现本申请的图像识别方法对应的程序指令。
与前述图像识别方法的实施例相对应,本申请还提供了图像识别装置的实施例。
参见图3,图3是本申请一示例性实施例示出的图像识别装置的逻辑框图,该装置可以包括:图像获取模块310、特征提取模块320、特征选取模块330和目标识别模块340。
其中,图像获取模块310,用于获取待识别的图像。
特征提取模块320,用于获得待识别的图像的特征图像,所述特征图像用于描述待识别的图像的特征。
特征选取模块330,用于从所获得的特征图像中选取至少两个描述目标对象的特征集。
目标识别模块340,用于基于所选取的特征集对目标对象进行识别。
一些例子中,选取的特征集在所述特征图像中所属的区域的尺寸不同。
作为例子,各特征集在所述特征图像中所属的区域的尺寸可以包括:
8*16,8*8,16*16,16*32,16*8,32*64,32*32,32*16,64*32。
一些例子中,本申请的图像识别装置还可以包括:
上下文选取模块,用于从所述特征图像中选取特征集的上下文特征。
目标识别模块340还可以用于根据所选取的特征集和上下文特征对目标对象进行识别。
作为例子,所述上下文特征包括局部上下文特征和/或全局上下文特征。
作为例子,特征集的局部上下文特征所属的区域的边长,为该特征集所属的区域的边长的1.5倍。
一些例子中,本申请的图像识别装置还可以包括:
池化操作模块,用于对选取的特征集、以及所述特征集的上下文特征分别进行池化操作。
目标识别模块340还可以用于根据所述池化操作所得的特征集和上下文特征对目标对象进行识别。
一些例子中,本申请的图像识别装置还可以包括:
像素调整模块,用于将所述池化操作所得的特征集和上下文特征调整到匹配的像素。
目标识别模块340还可以用于根据调整后的特征集和上下文特征对目标对象进行识别。
作为例子,所述池化操作模块在对选取的特征集、以及所述特征集的上下文特征分别进行池化操作时,还用于对各特征提取通道所提取的指定特征分别进行池化操作;不同特征提取通道所提取的指定特征在所述特征图像中的坐标不同。
一些例子中,所述目标识别模块340还可以用于:
将所选取的特征集调整到匹配的像素;
根据调整后的特征集对目标对象进行识别。
作为例子,匹配的像素包括以下至少两种:
3*12,12*3,5*10,10*5,7*7。
上述装置中各个单元(或模块)的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元或模块可以是或者也可以不是物理上分开的,作为单元或模块显示的部件可以是或者也可以不是物理单元或模块,即可以位于一个地方,或者也可以分布到多个网络单元或模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本申请方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本申请图像识别装置的实施例可以应用在电子设备上。具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现中,电子设备为计算机,计算机的具体形式可以是个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件收发设备、游戏控制台、平板计算机、可穿戴设备、互联网电视、智能机车、无人驾驶汽车、智能冰箱、其他智能家居设备或者这些设备中的任意几种设备的组合。
装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在电子设备的处理器将非易失性存储器等可读介质中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,如图4所示,为本申请图像识别装置所在电子设备的一种硬件结构图,除了图4所示的处理器、内存、网络接口、以及非易失性存储器之外,实施例中装置所在的电子设备通常根据该电子设备的实际功能,还可以包括其他硬件,对此不再赘述。电子设备的存储处理器可以是可执行指令的存储器;处理器可以耦合存储器,用于读取所述存储器存储的程序指令,并作为响应,执行如下操作:获取待识别的图像;获得待识别的图像的特征图像,所述特征图像用于描述待识别的图像的特征;从所获得的特征图像中选取至少两个描述目标对象的特征集;基于所选取的特征集对目标对象进行识别。
此外,本申请实施例还提供一种计算机存储介质,所述存储介质中存储有程序指令,所述程序指令包括:
获取待识别的图像;
获得待识别的图像的特征图像,所述特征图像用于描述待识别的图像的特征;
从所获得的特征图像中选取至少两个描述目标对象的特征集;
基于所选取的特征集对目标对象进行识别。
本申请实施例可采用在一个或多个其中包含有程序代码的存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。计算机可用存储介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括但不限于:相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
在其他实施例中,处理器所执行的操作可以参考上文方法实施例中相关的描述,在此不予赘述。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。
Claims (43)
1.一种图像识别方法,其特征在于,包括步骤:
获取待识别的图像;
获得待识别的图像的特征图像,所述特征图像用于描述待识别的图像的特征;
从所获得的特征图像中选取至少两个描述目标对象的特征集;
基于所选取的特征集对目标对象进行识别。
2.根据权利要求1所述的方法,其特征在于,在从所获得的特征图像中选取描述目标对象的特征集后,所述方法还包括:
从所述特征图像中选取特征集的上下文特征;
所述基于所选取的特征集对目标对象进行识别,包括:
根据所选取的特征集和上下文特征对目标对象进行识别。
3.根据权利要求2所述的方法,其特征在于,所述上下文特征包括局部上下文特征和/或全局上下文特征。
4.根据权利要求3所述的方法,其特征在于,特征集的局部上下文特征所属的区域的边长,为所述特征集所属的区域的边长的1.5倍。
5.根据权利要求2所述的方法,其特征在于,所述根据所选取的特征集和上下文特征对目标对象进行识别,包括:
对选取的特征集、以及所述特征集的上下文特征分别进行池化操作;
根据所述池化操作所得的特征集和上下文特征对目标对象进行识别。
6.根据权利要求5所述的方法,其特征在于,在对选取的特征集、以及所述特征集的上下文特征分别进行池化操作时,对各特征提取通道所提取的指定特征分别进行池化操作;不同特征提取通道所提取的指定特征在所述特征图像中的坐标不同。
7.根据权利要求5所述的方法,其特征在于,在对选取特征集、以及特征集的上下文特征分别进行池化操作后,所述方法还包括:
将所述池化操作所得的特征集和上下文特征调整到匹配的像素;
所述根据所述池化操作所得的特征集和上下文特征对目标对象进行识别,包括:
根据调整后的特征集和上下文特征对目标对象进行识别。
8.根据权利要求1所述的方法,其特征在于,所述基于所选取的特征集对目标对象进行识别,包括:
将所选取的特征集调整到匹配的像素;
根据调整后的特征集对目标对象进行识别。
9.根据权利要求7或8所述的方法,其特征在于,匹配的像素包括以下至少两种:
3*12,12*3,5*10,10*5,7*7。
10.根据权利要求1所述的方法,其特征在于,选取的特征集在所述特征图像中所属的区域的尺寸不同。
11.根据权利要求10所述的方法,其特征在于,特征集在所述特征图像中所属的区域的尺寸包括:
8*16,8*8,16*16,16*32,16*8,32*64,32*32,32*16,64*32。
12.根据权利要求1所述的方法,其特征在于,所述特征图像通过以下任一算法获得:
卷积神经网络模型,分类器,多级网络结构。
13.根据权利要求1所述的方法,其特征在于,描述目标对象的特征集的卷积运算结果大于预定阈值。
14.根据权利要求1所述的方法,其特征在于,描述目标对象的特征集的卷积运算结果大于其他非目标对象的特征集的卷积运算结果。
15.根据权利要求1所述的方法,其特征在于,识别结果包括目标对象的目标类别向量和目标位置偏移向量,所述目标类别向量为各特征集对应的类别向量中最大的向量元素所属的类别向量,所述目标位置偏移向量为所述目标类别向量对应的特征集的位置偏移向量。
16.根据权利要求1所述的方法,其特征在于,待识别的图像为拍摄智能冰箱的储物间所得的图像,所述目标对象为所述智能冰箱的储物间储存的食材。
17.一种电子设备,其特征在于,包括:
处理器;
存储处理器可执行指令的存储器;
其中,所述处理器耦合于所述存储器,用于读取所述存储器存储的程序指令,并作为响应,执行如下操作:
获取待识别的图像;
获得待识别的图像的特征图像;
从所获得的特征图像中选取至少两个描述目标对象的特征集,选取的特征集在所述特征图像中所属的区域的尺寸不同;
基于所选取的特征集对目标对象进行识别。
18.根据权利要求17所述的电子设备,其特征在于,所述处理器还被配置为执行以下操作:
从所述特征图像中选取特征集的上下文特征;
根据所选取的特征集和上下文特征对目标对象进行识别。
19.根据权利要求18所述的电子设备,其特征在于,所述上下文特征包括局部上下文特征和/或全局上下文特征。
20.根据权利要求19所述的电子设备,其特征在于,特征集的局部上下文特征所属的区域的边长,为该特征集所属的区域的边长的1.5倍。
21.根据权利要求18所述的电子设备,其特征在于,所述处理器还被配置为执行以下操作:
对选取的特征集、以及所述特征集的上下文特征分别进行池化操作;
根据所述池化操作所得的特征集和上下文特征对目标对象进行识别。
22.根据权利要求21所述的电子设备,其特征在于,所述处理器还被配置为执行以下操作:
在对选取的特征集、以及所述特征集的上下文特征分别进行池化操作时,对各特征提取通道所提取的指定特征分别进行池化操作;不同特征提取通道所提取的指定特征在所述特征图像中的坐标不同。
23.根据权利要求21所述的电子设备,其特征在于,所述处理器还被配置为执行以下操作:
将所述池化操作所得的特征集和上下文特征调整到匹配的像素;
根据调整后的特征集和上下文特征对目标对象进行识别。
24.根据权利要求17所述的电子设备,其特征在于,所述处理器还被配置为执行以下操作:
将所选取的特征集调整到匹配的像素;
根据调整后的特征集对目标对象进行识别。
25.根据权利要求23或24所述的电子设备,其特征在于,匹配的像素包括以下至少两种:
3*12,12*3,5*10,10*5,7*7。
26.根据权利要求17所述的电子设备,其特征在于,选取的特征集在所述特征图像中所属的区域的尺寸不同。
27.根据权利要求26所述的电子设备,其特征在于,特征集在所述特征图像中所属的区域的尺寸包括:
8*16,8*8,16*16,16*32,16*8,32*64,32*32,32*16,64*32。
28.根据权利要求17所述的电子设备,其特征在于,所述特征图像通过以下任一算法获得:
卷积神经网络模型,分类器,多级网络结构。
29.根据权利要求17所述的电子设备,其特征在于,描述目标对象的特征集的卷积运算结果大于预定阈值。
30.根据权利要求17所述的电子设备,其特征在于,描述目标对象的特征集的卷积运算结果大于其他非目标对象的特征集的卷积运算结果。
31.根据权利要求17所述的电子设备,其特征在于,识别结果包括目标对象的目标类别向量和目标位置偏移向量,所述目标类别向量为各特征集对应的类别向量中最大的向量元素所属的类别向量,所述目标位置偏移向量为所述目标类别向量对应的特征集的位置偏移向量。
32.根据权利要求17所述的电子设备,其特征在于,待识别的图像为拍摄智能冰箱的储物间所得的图像,所述目标对象为所述智能冰箱的储物间储存的食材。
33.一种图像识别装置,其特征在于,包括:
图像获取模块,用于获取待识别的图像;
特征提取模块,用于获得待识别的图像的特征图像,所述特征图像用于描述待识别的图像的特征;
特征选取模块,用于从所获得的特征图像中选取至少两个描述目标对象的特征集;
目标识别模块,用于基于所选取的特征集对目标对象进行识别。
34.根据权利要求33所述的装置,其特征在于,选取的特征集在所述特征图像中所属的区域的尺寸不同。
35.根据权利要求34所述的装置,其特征在于,各特征集在所述特征图像中所属的区域的尺寸包括:
8*16,8*8,16*16,16*32,16*8,32*64,32*32,32*16,64*32。
36.根据权利要求33所述的装置,其特征在于,所述装置还包括:
上下文选取模块,用于从所述特征图像中选取特征集的上下文特征;
所述目标识别模块还用于根据所选取的特征集和上下文特征对目标对象进行识别。
37.根据权利要求36所述的装置,其特征在于,所述上下文特征包括局部上下文特征和/或全局上下文特征。
38.根据权利要求36所述的装置,其特征在于,所述装置还包括:
池化操作模块,用于对选取的特征集、以及所述特征集的上下文特征分别进行池化操作;
所述目标识别模块还用于根据所述池化操作所得的特征集和上下文特征对目标对象进行识别。
39.根据权利要求38所述的装置,其特征在于,所述池化操作模块在对选取的特征集、以及所述特征集的上下文特征分别进行池化操作时,还用于对各特征提取通道所提取的指定特征分别进行池化操作;不同特征提取通道所提取的指定特征在所述特征图像中的坐标不同。
40.根据权利要求38所述的装置,其特征在于,所述目标识别模块还用于:
将所述池化操作所得的特征集和上下文特征调整到匹配的像素;
根据调整后的特征集和上下文特征对目标对象进行识别。
41.根据权利要求33所述的装置,其特征在于,所述目标识别模块还用于:
将所选取的特征集调整到匹配的像素;
根据调整后的特征集对目标对象进行识别。
42.根据权利要求40或41所述的电子设备,其特征在于,匹配的像素包括以下至少两种:
3*12,12*3,5*10,10*5,7*7。
43.一个或多个机器可读介质,其特征在于,其上存储有指令,当由一个或多个处理器执行时,使得终端设备执行如权利要求1-16中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710546203.4A CN109214403B (zh) | 2017-07-06 | 2017-07-06 | 图像识别方法、装置及设备、可读介质 |
PCT/CN2018/093350 WO2019007253A1 (zh) | 2017-07-06 | 2018-06-28 | 图像识别方法、装置及设备、可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710546203.4A CN109214403B (zh) | 2017-07-06 | 2017-07-06 | 图像识别方法、装置及设备、可读介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109214403A true CN109214403A (zh) | 2019-01-15 |
CN109214403B CN109214403B (zh) | 2023-02-28 |
Family
ID=64949696
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710546203.4A Active CN109214403B (zh) | 2017-07-06 | 2017-07-06 | 图像识别方法、装置及设备、可读介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN109214403B (zh) |
WO (1) | WO2019007253A1 (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110223279A (zh) * | 2019-05-31 | 2019-09-10 | 上海商汤智能科技有限公司 | 一种图像处理方法和装置、电子设备 |
CN111860687A (zh) * | 2020-07-31 | 2020-10-30 | 中国铁塔股份有限公司 | 一种图像识别方法、装置、电子设备和存储介质 |
CN113228044A (zh) * | 2019-12-23 | 2021-08-06 | 商汤国际私人有限公司 | 目标对象的识别方法、装置和系统 |
CN113537309A (zh) * | 2021-06-30 | 2021-10-22 | 北京百度网讯科技有限公司 | 一种对象识别方法、装置及电子设备 |
CN117690164A (zh) * | 2024-01-30 | 2024-03-12 | 成都欣纳科技有限公司 | 基于边缘计算的机场飞鸟识别驱赶方法及系统 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111798018B (zh) * | 2019-04-09 | 2024-08-02 | Oppo广东移动通信有限公司 | 行为预测方法、装置、存储介质及电子设备 |
CN110991460B (zh) * | 2019-10-16 | 2023-11-21 | 北京航空航天大学 | 图像识别处理方法、装置、设备及存储介质 |
CN111325263B (zh) * | 2020-02-14 | 2023-04-07 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、智能显微镜、可读存储介质和设备 |
CN112270671B (zh) * | 2020-11-10 | 2023-06-02 | 杭州海康威视数字技术股份有限公司 | 图像检测方法、装置、电子设备及存储介质 |
CN113312936B (zh) * | 2021-05-13 | 2024-08-13 | 阳光电源股份有限公司 | 一种图像定位标识识别方法及服务器 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030179931A1 (en) * | 2002-03-19 | 2003-09-25 | Hung-Ming Sun | Region-based image recognition method |
CN101275841A (zh) * | 2007-03-30 | 2008-10-01 | 爱信艾达株式会社 | 地物信息收集装置及地物信息收集方法 |
CN105005794A (zh) * | 2015-07-21 | 2015-10-28 | 太原理工大学 | 融合多粒度上下文信息的图像像素语义标注方法 |
CN106529467A (zh) * | 2016-11-07 | 2017-03-22 | 南京邮电大学 | 基于多特征融合的群体行为识别方法 |
CN106803090A (zh) * | 2016-12-05 | 2017-06-06 | 中国银联股份有限公司 | 一种图像识别方法和装置 |
-
2017
- 2017-07-06 CN CN201710546203.4A patent/CN109214403B/zh active Active
-
2018
- 2018-06-28 WO PCT/CN2018/093350 patent/WO2019007253A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030179931A1 (en) * | 2002-03-19 | 2003-09-25 | Hung-Ming Sun | Region-based image recognition method |
CN101275841A (zh) * | 2007-03-30 | 2008-10-01 | 爱信艾达株式会社 | 地物信息收集装置及地物信息收集方法 |
CN105005794A (zh) * | 2015-07-21 | 2015-10-28 | 太原理工大学 | 融合多粒度上下文信息的图像像素语义标注方法 |
CN106529467A (zh) * | 2016-11-07 | 2017-03-22 | 南京邮电大学 | 基于多特征融合的群体行为识别方法 |
CN106803090A (zh) * | 2016-12-05 | 2017-06-06 | 中国银联股份有限公司 | 一种图像识别方法和装置 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110223279A (zh) * | 2019-05-31 | 2019-09-10 | 上海商汤智能科技有限公司 | 一种图像处理方法和装置、电子设备 |
CN110223279B (zh) * | 2019-05-31 | 2021-10-08 | 上海商汤智能科技有限公司 | 一种图像处理方法和装置、电子设备 |
CN113228044A (zh) * | 2019-12-23 | 2021-08-06 | 商汤国际私人有限公司 | 目标对象的识别方法、装置和系统 |
CN111860687A (zh) * | 2020-07-31 | 2020-10-30 | 中国铁塔股份有限公司 | 一种图像识别方法、装置、电子设备和存储介质 |
CN113537309A (zh) * | 2021-06-30 | 2021-10-22 | 北京百度网讯科技有限公司 | 一种对象识别方法、装置及电子设备 |
CN113537309B (zh) * | 2021-06-30 | 2023-07-28 | 北京百度网讯科技有限公司 | 一种对象识别方法、装置及电子设备 |
CN117690164A (zh) * | 2024-01-30 | 2024-03-12 | 成都欣纳科技有限公司 | 基于边缘计算的机场飞鸟识别驱赶方法及系统 |
CN117690164B (zh) * | 2024-01-30 | 2024-04-30 | 成都欣纳科技有限公司 | 基于边缘计算的机场飞鸟识别驱赶方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109214403B (zh) | 2023-02-28 |
WO2019007253A1 (zh) | 2019-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109214403A (zh) | 图像识别方法、装置及设备、可读介质 | |
WO2022000426A1 (zh) | 基于孪生深度神经网络的动目标分割方法及系统 | |
CN110176027B (zh) | 视频目标跟踪方法、装置、设备及存储介质 | |
CN111027493B (zh) | 一种基于深度学习多网络软融合的行人检测方法 | |
CN108647694B (zh) | 基于上下文感知和自适应响应的相关滤波目标跟踪方法 | |
Xu et al. | Learning-based shadow recognition and removal from monochromatic natural images | |
CN109325484B (zh) | 基于背景先验显著性的花卉图像分类方法 | |
CN110210276A (zh) | 一种移动轨迹获取方法及其设备、存储介质、终端 | |
CN111627050B (zh) | 一种目标跟踪模型的训练方法和装置 | |
WO2013106984A1 (en) | Learning painting styles for painterly rendering | |
CN113408584B (zh) | Rgb-d多模态特征融合3d目标检测方法 | |
CN107305691A (zh) | 基于图像匹配的前景分割方法及装置 | |
CN112465021B (zh) | 基于图像插帧法的位姿轨迹估计方法 | |
CN108241854A (zh) | 一种基于运动和记忆信息的深度视频显著性检测方法 | |
CN110458864A (zh) | 基于整合语义知识和实例特征的目标跟踪方法与目标跟踪器 | |
CN111126197A (zh) | 基于深度学习的视频处理方法及装置 | |
CN105844647A (zh) | 一种基于颜色属性的核相关目标跟踪方法 | |
CN115424164A (zh) | 一种场景自适应视频数据集的构建方法及系统 | |
Yu et al. | Learning bipartite graph matching for robust visual localization | |
CN112241736A (zh) | 一种文本检测的方法及装置 | |
Liao et al. | Multi-scale saliency features fusion model for person re-identification | |
CN110570450B (zh) | 一种基于级联的上下文感知框架的目标跟踪方法 | |
CN114283087A (zh) | 一种图像去噪方法及相关设备 | |
CN113537134A (zh) | 目标对象的识别方法及装置、存储介质及电子装置 | |
He et al. | Adaptive multi-scale tracking target algorithm through drone |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20201218 Address after: Room 603, 6 / F, Roche Plaza, 788 Cheung Sha Wan Road, Kowloon, China Applicant after: Zebra smart travel network (Hong Kong) Ltd. Address before: A four-storey 847 mailbox in Grand Cayman Capital Building, British Cayman Islands Applicant before: Alibaba Group Holding Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |