CN112699898B - 一种基于多层特征融合的图像方向识别方法 - Google Patents
一种基于多层特征融合的图像方向识别方法 Download PDFInfo
- Publication number
- CN112699898B CN112699898B CN202011602241.5A CN202011602241A CN112699898B CN 112699898 B CN112699898 B CN 112699898B CN 202011602241 A CN202011602241 A CN 202011602241A CN 112699898 B CN112699898 B CN 112699898B
- Authority
- CN
- China
- Prior art keywords
- lbp
- image
- spp
- identification method
- feature fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
Abstract
本发明涉及一种基于多层特征融合的图像方向识别方法,目的是解决目前识别图像方向的实际需求,以及现有识别方法需要对图像进行裁剪破坏原图像大小的技术问题,本发明的技术方案为:先旋转并得到不同角度的原图,然后建立LBP‑SPP‑AlexNet模型对图像进行训练和预测,再进行分类和识别,最后对结果进行验证。本发明识别方法可以在不改变图像原始大小的情况下,通过多层特征融合对图像的方向进行准确识别。
Description
技术领域
本发明属于图像处理和计算机视觉处理技术领域,具体涉及一种基于多层特征融合的图像方向识别方法。
背景技术
几乎所有的成像应用和图片管理系统都要求图像在处理和可视化之前正确定位。例如,大多数图像识别和场景分类的应用程序,都非常依赖于给定图像是正面的。
关于照片方向的信息可以从相机的传感器获得,并记录在数据标签中。然而,这些信息往往在低端数码相机上丢失,或者可能已经被图片编辑软件删除。在这些情况下,确定图像的方向就需要用户的干预。人类可以利用他们的图像理解能力来识别照片的方向。然而,图像方向的人工校正是一项繁琐、耗时和易出错的工作。当大量的图片需要处理时,这一点尤为明显。对于这些情况,设计一个模拟人类高水平理解能力的图像方向自动识别算法是必要的,同时也这也是一项具有挑战性的任务。
近些年依据计算视觉特征与人类视觉感知之间的关系,研究人员通过计算机辅助的方法识别图像的方向,目前对图像方向的研究现状如下:
1)人类一般是通过对图像内容的理解来识别方向,因此大多数研究,采用低层特征(颜色,纹理和布局等)来识别图像的方向,并未考虑高层语义特征,这就导致它的准确性在很大程度上取决于选取的低层特征是否能准确表达图像的方向特性。
2)目前有一部分研究采用的深度学习方法,使用的图像大小是一致的,因此输入网络前都需要进行裁剪,这样会破坏图像的很多信息,对于有些图像的大小是作者提前设定好的,而且图像的长度和宽度对方向识别是重要的因素之一,因此希望在计算过程中不改变原始图像大小。
发明内容
本发明的目的是针对目前图像方向识别的实际需求,以及现有识别方法需要对图像进行裁剪破坏原图大小的技术问题,提供一种在不改变图像原始大小的情况下,基于多层特征融合的图像方向识别方法。
为解决上述技术问题,本发明采用的技术方案是:
一种基于多层特征融合的图像方向识别方法,包括以下步骤:
1)旋转并得到不同方向的图像:将所有图像依次旋转四个方向,分别得到四个不同方向的图像,将旋转后的所有图像用RGB彩色模式进行表示;
2)建立LBP-SPP-AlexNet模型:基于局部二值模式LBP(LocalBinaryPatterns)、空间金字塔池化SPP(SpatialPyramidPooling)和AlexNet建立LBP-SPP-AlexNet模型,具体步骤如下:
2.1)在RGB模式下,将彩色图像分为R,G,B三个分量,分别计算三个分量的非旋转不变LBP特征,然后再合成为LBP-RGB图谱。计算过程中采用3个不同的尺度(LBP1,8、LBP2,16和LBP3,24)生成3个LBP-RGB图谱。
2.2)将2.1)中得到的3个不同尺度的图谱,输入到LBP-SPP-AlexNet模型中,该模型以AlexNet为网络基础框架,5个卷积层利用滤波器对输入样本进行卷积,激活函数采用ReLU,得到5组特征图;
2.3)对步骤2.2)中得到的5组特征图进行3种不同尺度的空间金字塔池化(SPP)操作,取每块的最大值作为池化特征,池化层对不同尺寸的特征图进行采样,得到5个SPP特征;
2.4)利用LBP-SPP-AlexNet模型将2.3)中得到的5个SPP特征进行融合,然后输入到3个全连接层中,用于连接所有神经元;
2.5)在步骤2.4)中的最后一个全连接层之后,采用softmax激活函数和实现四分类;
2.6)基于LBP、SPP和AlexNet建立LBP-SPP-AlexNet模型,损失函数采用交叉熵损失函数。
3)图像训练和预测:将步骤1)中得到的图像放入步骤2)建立的LBP-SPP-AlexNet模型中进行训练和预测;
4)图像分类和识别:将经步骤3)中处理得到的图像分为四类:四个不同的方向,然后自动识别图像的方向;
5)识别结果的验证:分别采用不同的性能评价指标对比实验模型,对预测结果进行验证。
进一步的,所述步骤1)中图像的四个旋转方向分别为逆时针旋转0°、90°、180°和270°;所述步骤4)中,所得的图像分为四类,分别为0°、90°、180°和270°。
进一步的,所述步骤2.1)中计算图像的非旋转不变LBP特征的具体步骤如下:把图像中的某个像素点作为中心点,取半径为R,按照(Rcos(2π/P),Rsin(2π/P))方法进行插值,得到的圆形采样点集作为该中心点的领域点,P为采样点个数。然后将中心像素点的值与其邻域像素点的值进行比较,若邻域像素点的值大于中心点素,则将该领域位置置1,反之置0,之后按顺时针读取圆形采样点,最终组合成一个二进制数序列,将该序列转换成十进制,即为LBPR,P码,计算如下:
其中gc是当前像素的灰度级,gn是其领域的灰度级,s(x)是一个符号函数。
进一步的,所述步骤2.2)中的5个卷积层分别为:第1个卷积层由96个11×11个卷积核组成,步长为4,padding为0,3×3的最大池化;第2个卷积层由256个5×5个卷积核组,步长为1,padding为1,3×3的最大池化;第3个卷积层由384个3×3的卷积核组成,步长为1,padding为1;第4个卷积层由384个3×3个卷积核组成,步长为1,padding为1;第5个卷积层由256个3×3,步长为1的卷积核组成,padding为1,3×3的最大池化;
所述激活函数ReLU,又称线性整流函数,公式为:
式中:x为函数输入,f(x)为函数输出。
进一步的,所述步骤2.3)中的3种不同尺度的池化具体指1×1=1块,2×2=4块,4×4=16块,总共21块,取每块的最大值作为池化特征。
进一步的,所述步骤2.4)中的3个全连接层的维度分别为2048,2048和1000。
进一步的,所述步骤2.5)中的softmax激活函数公式为:
式中:xi是分类器前级输出单元的输出,i表示类别索引,K表示类别个数,t(xi)是样本当前指数与所有指数和的比值,表示为该样本属于某个类的概率。
进一步的,在步骤2.6)中,采用交叉熵(crossentropy)作为损失函数,多分类交叉熵损失函数公式为:
式中,N表示样本个数,K表示类别个数,yi表示第i个样本的标签;pi,k表示第i个样本预测为第k类的概率。
进一步的,在步骤5)中,所述不同的性能评价指标是指准确率(accuracy,AC)、灵敏性(sensitivity,SE)和特异性(specificity,SP)。
与现有技术相比,本发明的有益效果是:
1、本发明采用深度学习框架可以实现图像方向的自动识别;
2、本发明在RGB模式下,采用3中不同的尺度的非旋转不变LBP特征,生成3个LBP-RGB特征图谱,能更好的表达图像的方向属性;
3、本发明采用空间金字塔池化层(SPP)作为深度学习网络框架的池化层,使得网络不同尺寸的输入,得到相同长度的池化特征,保证了图像的尺度不变,而且降低了过拟合;
4、本发明对5个卷积层得到的特征图采用SPP特征,并将5个SPP特征进行融合,此特征能很好的描述图像的低层和高层特征,提高分类准确率。
为充分证明本发明方法的有效性和适用性,首先测试不同图像(原始图像与LBP-RGB图谱),与不同尺度的LBP-RGB图谱作为输入的实验结果,为此设计了如下四种情况的输入:原始图像,单尺度(LBP1,8),双尺度(LBP1,8和LBP2,16),三尺度(LBP1,8、LBP2,16和LBP3,24)。实验结果如表1所示,当输入为三尺度的LBP-RGB图谱时,准确率为94.36%,灵敏性为95.12%和特异性为92.89%,都优于其它三个模型,由此说明LBP特征能很好的反映图像的旋转特性,表达图像的方向,并且选取三个不同的尺度,能更加有效地提高准确率。
表1输入不同尺度的LBP-RGB图谱所得实验结果对比
网络输入 | AC(%) | SE(%) | SP(%) |
原始图像 | 82.96 | 80.82 | 84.87 |
单尺度 | 88.72 | 89.57 | 86.35 |
双尺度 | 91.23 | 92.45 | 90.14 |
三尺度 | 94.36 | 95.12 | 92.89 |
为了充分说明多特征融合对方向识别模型性能的影响,本发明分别使用不同形式的金字塔池化层进行特征融合,其中,模型1只包含SPP1;模型2包含SPP1和SPP2;模型3包含SPP1、SPP2和SPP3;模型4包含SPP1、SPP2、SPP3和SPP4;模型5即本发明提出的模型,包含所有5个SPP。实验结果如表2所示,本发明(模型5)经过测试后的三个评价指标(AC,SP,SE)都优于其它4个模型,该结果表明融合不同层的特征,可以显著提高方向识别的准确率。
表2不同模型下的特征融合实验结果
综上可知,本发明提出的模型在图像方向的识别率中有很明显的提升。
本发明提出的模型能有效识别图像的方向,即能够在机器学习的框架下建立图像视觉内容与方向之间的关系。
附图说明
图1为本发明的识别方法流程图;
图2为本发明中图像的四个旋转方向示意图;
图3为建立LBP-SPP-AlexNet模型的过程流程图;
图4为LBP-SPP-AlexNet模型的结构示意图;
图5为多尺度LBP结构示意图
图6为SPP结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图1-6所示,一种基于多层特征融合的图像方向识别方法,包括以下步骤:
1)旋转并得到不同方向的图像:将所有图像依次逆时针旋转四个方向(0°、90°、180°和270°),分别得到四个不同方向的图像,将旋转后的所有图像用RGB彩色模式进行表示;
2)建立LBP-SPP-AlexNet模型:基于局部二值模式LBP(Local Binary Patterns)、空间金字塔池化层SPP(Spatial Pyramid Pooling)和AlexNet建立LBP-SPP-AlexNet模型;
建立LBP-SPP-AlexNet模型的具体步骤包括:
2.1)在RGB模式下,计算图像的3个LBP-RGB图谱。将彩色图像分为R,G,B三个分量,分别计算这三个分量的非旋转不变LBP特征,然后再合成为LBP-RGB图谱。计算过程中采用3个不同的尺度(LBP1,8、LBP2,16和LBP3,24)生成3个LBP-RGB图谱。
2.2)将2.1)中得到的3个不同尺度的图谱,输入到LBP-SPP-AlexNet模型中,该模型以AlexNet为网络基础框架,5个卷积层利用滤波器对输入样本进行卷积,激活函数采用ReLU,得到5组特征图。所述5个卷积层分别为:第1个卷积层由96个11×11个卷积核组成,步长为4,padding为0,3×3的最大池化;第2个卷积层由256个5×5个卷积核组,步长为1,padding为1,3×3的最大池化;第3个卷积层由384个3×3的卷积核组成,步长为1,padding为1;第4个卷积层由384个3×3个卷积核组成,步长为1,padding为1;第5个卷积层由256个3×3,步长为1的卷积核组成,padding为1,3×3的最大池化;
所述激活函数ReLU,又称线性整流函数,公式为:
式中:x为函数输入,f(x)为函数输出。
2.3)对步骤2.2)中得到的特征图进行3种不同尺度的空间金字塔池化(SPP)(1×1=1块,2×2=4块,4×4=16块,总共21块),取每块的最大值作为池化特征。5组特征图通过SPP层后得到5个SPP特征。
2.4)将步骤2.3)中得到的5个SPP特征进行组合,融合成一个池化特征。
2.5)LBP-SPP-AlexNet在2.4)的池化特征融合之后连接3个全连接层,所述3个全连接层的维度分别为2048,2048和1000,用于连接所有神经元;
2.6)在步骤2.5)中的最后一个全连接层之后,采用softmax激活函数实现四分类;所述softmax激活函数公式为:
式中:xi是分类器前级输出单元的输出。i表示类别索引,K表示类别的个数。t(xi)是样本当前指数与所有指数和的比值,表示为该样本属于某个类的概率。
2.7)基于LBP、SPP和AlexNet建立LBP-SPP-AlexNet模型,并将采用交叉损失熵作为损失函数;
所述非旋转不变LBP是把图像中的某个像素点作为中心点,取半径为R,按照(Rcos(2π/P),Rsin(2π/P))方法进行插值,得到的圆形采样点集作为该中心点的领域点,P为采样点个数。然后将中心像素点的值与其邻域像素点的值进行比较,若邻域像素点的值大于中心点素,则将该领域位置置1,反之置0,之后按顺时针读取圆形采样点,最终组合成一个二进制数序列,将该序列转换成十进制,即为LBPR,P码,计算如下:
其中gc是当前像素的灰度级,gn是其领域的灰度级,s(x)是一个符号函数。
所述采用交叉熵(crossentropy)作为损失函数,多分类交叉熵损失函数公式为:
式中,N表示样本个数,K表示标签类别个数,yi表示第i个样本的标签;pi,k表示第i个样本预测为第k类的概率;
3)图像训练和预测:将步骤1)中得到的图像放入步骤2)建立的LBP-SPP-AlexNet模型中进行训练和预测;
4)图像分类和识别:将步骤3)中得到的图像分为四个不同的方向(0°、90°、180°和270°),即四类,然后自动识别图像的方向;
5)识别结果的验证:分别采用准确率(accuracy,AC)、灵敏性(sensitivity,SE)和特异性(specificity,SP)三个不同的性能评价指标对比实验模型,对预测结果进行验证。
Claims (9)
1.一种基于多层特征融合的图像方向识别方法,其特征在于:包括以下步骤:
1)旋转并得到不同方向的图像:将所有图像依次旋转四个方向,分别得到四个不同方向的图像,将旋转后的所有图像用RGB彩色模式进行表示;
2)建立LBP-SPP-AlexNet模型:基于局部二值模式LBP(Local Binary Patterns)、空间金字塔池化SPP(Spatial Pyramid Pooling)和AlexNet建立LBP-SPP-AlexNet模型,具体步骤如下:
2.1)在RGB模式下,将彩色图像分为R,G,B三个分量,分别计算三个分量的非旋转不变LBP特征,然后再合成为LBP-RGB图谱;计算过程中采用3个不同的尺度(LBP1,8、LBP2,16和LBP3,24)生成3个LBP-RGB图谱;
2.2)将2.1)中得到的3个不同尺度的图谱,输入到LBP-SPP-AlexNet模型中,该模型以AlexNet为网络基础框架,5个卷积层利用滤波器对输入样本进行卷积,激活函数采用ReLU,得到5组特征图;
2.3)对步骤2.2)中得到的5组特征图进行3种不同尺度的空间金字塔池化(SPP)操作,取每块的最大值作为池化特征,池化层对不同尺寸的特征图进行采样,得到5个SPP特征;
2.4)利用LBP-SPP-AlexNet模型将2.3)中得到的5个SPP特征进行融合,然后输入到3个全连接层中,用于连接所有神经元;
2.5)在步骤2.4)中的最后一个全连接层之后,采用softmax激活函数和实现四分类;
2.6)基于LBP、SPP和AlexNet建立LBP-SPP-AlexNet模型,损失函数采用交叉熵损失函数;
3)图像训练和预测:将步骤1)中得到的图像放入步骤2)建立的LBP-SPP-AlexNet模型中进行训练和预测;
4)图像分类和识别:将经步骤3)中处理得到的图像分为四类:四个不同的方向,然后自动识别图像的方向;
5)识别结果的验证:分别采用不同的性能评价指标对比实验模型,对预测结果进行验证。
2.根据权利要求1所述的一种基于多层特征融合的图像方向识别方法,其特征在于:所述步骤1)中图像的四个旋转方向分别为逆时针旋转0°、90°、180°和270°;所述步骤4)中,所得的图像分为四类,分别为0°、90°、180°和270°。
4.根据权利要求1所述的一种基于多层特征融合的图像方向识别方法,其特征在于:所述步骤2.2)中的5个卷积层分别为:第1个卷积层由96个11×11个卷积核组成,步长为4,padding为0,3×3的最大池化;第2个卷积层由256 个5×5个卷积核组,步长为1,padding为1,3×3的最大池化;第3个卷积层由384个3×3的卷积核组成,步长为1,padding为1;第4个卷积层由384个3×3个卷积核组成,步长为1,padding为1;第5个卷积层由256个3×3,步长为1的卷积核组成,padding为1,3×3的最大池化;
所述激活函数ReLU,又称线性整流函数,公式为:
式中:x为函数输入,f(x)为函数输出。
5.根据权利要求1所述的一种基于多层特征融合的图像方向识别方法,其特征在于:所述步骤2.3)中的3种不同尺度的池化具体指1×1=1块,2×2=4块,4×4=16块,总共21块,取每块的最大值作为池化特征。
6.根据权利要求1所述的一种基于多层特征融合的图像方向识别方法,其特征在于:所述步骤2.4)中的3个全连接层的维度分别为2048,2048和1000。
9.根据权利要求1所述的一种基于多层特征融合的图像方向识别方法,其特征在于:在步骤5)中,所述不同的性能评价指标是指准确率(accuracy,AC)、灵敏性(sensitivity,SE)和特异性(specificity,SP)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011602241.5A CN112699898B (zh) | 2020-12-29 | 2020-12-29 | 一种基于多层特征融合的图像方向识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011602241.5A CN112699898B (zh) | 2020-12-29 | 2020-12-29 | 一种基于多层特征融合的图像方向识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112699898A CN112699898A (zh) | 2021-04-23 |
CN112699898B true CN112699898B (zh) | 2022-09-20 |
Family
ID=75512147
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011602241.5A Active CN112699898B (zh) | 2020-12-29 | 2020-12-29 | 一种基于多层特征融合的图像方向识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112699898B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117274111A (zh) * | 2023-11-17 | 2023-12-22 | 国网智能科技股份有限公司 | 一种基于多尺度特征融合的图像畸变矫正方法及系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110087530A (zh) * | 2016-12-07 | 2019-08-02 | 普罗根尼蒂公司 | 胃肠道检测方法、装置和系统 |
CN111526883A (zh) * | 2017-11-03 | 2020-08-11 | 自然阳光生产公司 | 增强代谢解毒系统的方法和组合物 |
CN109086799A (zh) * | 2018-07-04 | 2018-12-25 | 江苏大学 | 一种基于改进卷积神经网络模型AlexNet的作物叶片病害识别方法 |
CN108985217A (zh) * | 2018-07-10 | 2018-12-11 | 常州大学 | 一种基于深度空间网络的交通标志识别方法及系统 |
CN110956184B (zh) * | 2019-11-18 | 2023-09-22 | 山西大学 | 一种基于hsi-lbp特征的抽象图方向确定方法 |
CN112132137A (zh) * | 2020-09-16 | 2020-12-25 | 山西大学 | 一种基于FCN-SPP-Focal Net的抽象画图像正确方向的识别方法 |
-
2020
- 2020-12-29 CN CN202011602241.5A patent/CN112699898B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112699898A (zh) | 2021-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109299274B (zh) | 一种基于全卷积神经网络的自然场景文本检测方法 | |
CN111768432B (zh) | 基于孪生深度神经网络的动目标分割方法及系统 | |
CN110321910B (zh) | 面向点云的特征提取方法、装置及设备 | |
CN110008956B (zh) | 发票关键信息定位方法、装置、计算机设备及存储介质 | |
CN109583483B (zh) | 一种基于卷积神经网络的目标检测方法和系统 | |
CN109086811B (zh) | 多标签图像分类方法、装置及电子设备 | |
CN110738697A (zh) | 基于深度学习的单目深度估计方法 | |
CN109191424B (zh) | 一种乳腺肿块检测与分类系统、计算机可读存储介质 | |
CN112801146A (zh) | 一种目标检测方法及系统 | |
CN110781980B (zh) | 目标检测模型的训练方法、目标检测方法及装置 | |
CN111626295B (zh) | 车牌检测模型的训练方法和装置 | |
CN111768415A (zh) | 一种无量化池化的图像实例分割方法 | |
CN112819748B (zh) | 一种带钢表面缺陷识别模型的训练方法及装置 | |
CN111652273B (zh) | 一种基于深度学习的rgb-d图像分类方法 | |
CN109815923B (zh) | 基于lbp特征与深度学习的金针菇菇头分选识别方法 | |
CN110543906A (zh) | 基于数据增强和Mask R-CNN模型的肤质自动识别方法 | |
CN108615401B (zh) | 基于深度学习的室内非均匀光线车位状况识别方法 | |
CN114913498A (zh) | 一种基于关键点估计的并行多尺度特征聚合车道线检测方法 | |
CN115147418A (zh) | 缺陷检测模型的压缩训练方法和装置 | |
CN114999637A (zh) | 多角度编码与嵌入式互学习的病理图像诊断方法与系统 | |
CN112699898B (zh) | 一种基于多层特征融合的图像方向识别方法 | |
CN112132145B (zh) | 一种基于模型扩展卷积神经网络的图像分类方法及系统 | |
CN113487610A (zh) | 疱疹图像识别方法、装置、计算机设备和存储介质 | |
CN109740682B (zh) | 一种基于域转化和生成模型的图像识别方法 | |
CN109583584B (zh) | 可使具有全连接层的cnn接受不定形状输入的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20230627 Address after: No. 304-314, No. 16 (Plant B), Huifeng East Second Road, Zhongkai High tech Zone, Huizhou, Guangdong Province, 516000 Patentee after: HUIZHOU WEIMILI TECHNOLOGY Co.,Ltd. Address before: 030006, No. 92, Hollywood Road, Xiaodian District, Shanxi, Taiyuan Patentee before: SHANXI University |
|
TR01 | Transfer of patent right |