CN116486372A - 一种基于人工智能的交通标识识别方法及装置 - Google Patents
一种基于人工智能的交通标识识别方法及装置 Download PDFInfo
- Publication number
- CN116486372A CN116486372A CN202310427414.1A CN202310427414A CN116486372A CN 116486372 A CN116486372 A CN 116486372A CN 202310427414 A CN202310427414 A CN 202310427414A CN 116486372 A CN116486372 A CN 116486372A
- Authority
- CN
- China
- Prior art keywords
- feature
- traffic sign
- capsule
- traffic
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000013473 artificial intelligence Methods 0.000 title claims abstract description 34
- 239000013598 vector Substances 0.000 claims abstract description 106
- 239000002775 capsule Substances 0.000 claims abstract description 75
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 47
- 238000007637 random forest analysis Methods 0.000 claims abstract description 35
- 230000015654 memory Effects 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 19
- 238000003066 decision tree Methods 0.000 claims description 19
- 238000013507 mapping Methods 0.000 claims description 12
- 238000003062 neural network model Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 238000012790 confirmation Methods 0.000 claims description 3
- 238000005538 encapsulation Methods 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 abstract description 7
- 238000010187 selection method Methods 0.000 abstract description 3
- 238000012549 training Methods 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/582—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本申请实施例提供了一种基于人工智能的交通标识识别方法、装置、电子设备及存储介质,通过获取交通标识图像,再将其输入胶囊神经网络,通过动态路由算法获取各个胶囊的输出向量,将输出向量拼接成交通标识特征向量,再通过计算各个特征向量之间的相对距离计算相对距离权重,并根据相对距离权重,选择相关性较高的特征向量通过两层随机森林算法对其进行分类。本申请实施例相比传统的交通标识识别方法更能够适应目标的方向、姿态等变化,表达多个特征之间的关系;在特征选择方法中,采用相对距离权重方法,减少了对噪声和冗余特征的依赖;采用双层随机森林算法,通过选择最佳的子特征集和投票方法来提高特征的选择精度和分类器的准确性。
Description
技术领域
本申请实施例涉及车辆技术领域,特别是涉及一种基于人工智能的交通标识识别方法、装置、电子设备及存储介质。
背景技术
近年来,人工智能技术在交通领域中的应用逐渐增多,其中道路标识识别技术是其中之一。道路标识是交通运输领域中非常重要的组成部分,它们提供了路面信息以帮助驾驶员们行驶和保持安全。然而,由于各种原因,如天气恶劣、标志破损等,驾驶员可能无法及时发现这些标识,这可能导致交通事故的发生。为了解决这个问题,研究人员们开始尝试使用人工智能技术来识别道路标识。这种技术可以通过摄像头或激光雷达等传感器来获取道路标识的图像或数据,并使用机器学习算法对这些数据进行处理和分析,从而识别出道路标识的类型和位置。但现有的人工智能技术识别依然存在如下弊端:
(1)传统计算机视觉方法在交通标识识别方面存在准确率低、计算量大的问题,无法满足实时性的要求。
(2)基于深度学习方法的交通标识识别模型需要大量的训练数据和计算资源,且对噪声和光照变化等干扰敏感,容易出现过拟合和欠拟合等问题。
(3)交通标识识别任务中存在噪声和异常点等问题,传统方法需要进行复杂的预处理和滤波操作,增加了算法的复杂度和计算量。
(4)传统计算机视觉方法和基于深度学习方法需要进行复杂的特征工程和非极大值抑制等操作,设计和调整这些算法需要专业知识和经验,且容易出现过拟合和欠拟合等问题。
发明内容
本发明提供了一种基于人工智能的交通标识识别方法、装置、电子设备及存储介质,通过胶囊网络进行特征提取,并在特征提取过程中引入位置信息,再通过双层随机森林算法对特征进行选择和集成,提高了分类结果的精度和计算速度。
第一方面,本发明提供了一种基于人工智能的交通标识识别方法,包括如下步骤:
获取交通标识图像;
通过将所述交通标识图像输入预训练的胶囊神经网络模型,获取交通标识特征向量;
将所述交通标识特征向量输入预训练的算法模型进行分类,获取交通标识识别结果。
进一步地,所述获取交通标识特征向量,具体包括如下步骤:
通过对所述交通标识图像进行多层卷积操作,获取特征图;
对所述特征图进行胶囊化处理,将每个所述特征图中的每个像素点映射为一个胶囊;
通过动态路由算法,计算各所述胶囊之间的路由权重;
根据所述路由权重,计算全部所述胶囊的所述输出向量;
将全部所述输出向量进行拼接,获取所述交通标识特征向量。
进一步地,所述获取交通标识识别结果,还包括如下方法步骤:
根据所述交通标识特征向量各个特征之间的相对距离,计算相对距离权重;
根据所述相对距离权重,对所述交通标识特征向量进行选择,生成第一特征子集;
将所述第一特征子集输入第一随机森林算法模型,获取各决策树的准确度排序;
获取所述准确度排序前k个所述决策树的对应特征子集,生成第二特征子集;
将所述第二特征子集输入第二随机森林算法模型,确认所述第二随机森林算法模型的投票结果即为所述交通标识识别结果。
进一步地,获取所述交通标识特征向量,具体包括如下方法步骤:
将所述特征图中的每个像素点映射为一个胶囊i,计算每一个所述胶囊i对应的所述输出向量,所述输出向量vi的计算式为:
其中,ci为所述胶囊i的输入向量,其计算式为:
其中,aij表示所述胶囊i与另一胶囊j之间的所述路由权重,Wij表示所述胶囊i到所述胶囊j的权重矩阵,uj表示所述胶囊j的输出向量;
将全部所述输出向量vi进行拼接,获取所述交通标识特征向量f,其中,所述f的计算式为:
f=[v1,v2,...,vi]。
进一步地,计算各所述胶囊之间的路由权重,具体包括如下方法步骤:
所述路由权重aij的计算式为:
其中,bij是所述胶囊i到所述胶囊j的预测向量与所述胶囊j的输出向量之间的点积,即:
bij=vj·Wijuj。
第二方面,本发明提供一种基于人工智能的交通标识识别装置,包括:
交通图像获取模块,用于获取交通标识图像;
特征向量获取模块,用于通过将所述交通标识图像输入预训练的胶囊神经网络模型,获取交通标识特征向量;
识别结果获取模块,用于将所述交通标识特征向量输入预训练的算法模型进行分类,获取交通标识识别结果。
进一步地,特征图获取单元,用于通过对所述交通标识图像进行多层卷积操作,获取特征图;
胶囊映射单元,用于对所述特征图进行胶囊化处理,将每个所述特征图中的每个像素点映射为一个胶囊;
路由权重计算单元,用于通过动态路由算法,计算各所述胶囊之间的路由权重;
输出向量计算单元,用于根据所述路由权重,计算全部所述胶囊的所述输出向量;
输出向量拼接单元,用于将全部所述输出向量进行拼接,获取所述交通标识特征向量。
进一步地,所述识别结果获取模块,还包括:
相对距离权重计算单元,用于根据所述交通标识特征向量各个特征之间的相对距离,计算相对距离权重;
第一特征子集生成单元,用于根据所述相对距离权重,对所述交通标识特征向量进行选择,生成第一特征子集;
决策树排序单元,用于将所述第一特征子集输入第一随机森林算法模型,获取各决策树的准确度排序;
第二特征子集生成单元,用于获取所述准确度排序前k个所述决策树的对应特征子集,生成第二特征子集;
识别结果确认单元,用于将所述第二特征子集输入第二随机森林算法模型,确认所述第二随机森林算法模型的投票结果即为所述交通标识识别结果。
第三方面,本发明提供一种电子设备,包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如第一方面所述的一种基于人工智能的交通标识识别方法的步骤。
第四方面,本发明提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的一种基于人工智能的交通标识识别方法的步骤。
本发明通过获取交通标识图像,再将其输入胶囊神经网络,通过动态路由算法获取各个胶囊的输出向量,将输出向量拼接成交通标识特征向量,再通过计算各个特征向量之间的相对距离计算相对距离权重,并根据相对距离权重,选择相关性较高的特征向量通过两层随机森林算法对其进行分类,其中第一随机森林算法模型用于获取准确度排序最高的特征子集,第二随机森林算法用于对上述特征子集进行投票,并输出投票结果作为最终交通标识识别结果。本申请实施例相比传统的交通标识识别方法更能够适应目标的方向、姿态等变化,表达多个特征之间的关系;在特征选择方法中,采用相对距离权重方法,减少了对噪声和冗余特征的依赖;采用双层随机森林算法,通过选择最佳的子特征集和投票方法来提高特征的选择精度和分类器的准确性。
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
附图说明
图1为在一个示例性的实施例中提供的一种基于人工智能的交通标识识别方法的步骤流程图;
图2为在一个示例性的实施例中提供的一种基于人工智能的交通标识识别装置的模块示意图;
图3为在一个示例性的实施例中提供的一种电子设备的示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施例方式作进一步地详细描述。
应当明确,所描述的实施例仅仅是本申请实施例一部分实施例,而不是全部的实施例。基于本申请实施例中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本申请实施例保护的范围。
在本申请实施例使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请实施例。在本申请实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。在本申请的描述中,需要理解的是,术语“第一”、“第二”、“第三”等仅用于区别类似的对象,而不必用于描述特定的顺序或先后次序,也不能理解为指示或暗示相对重要性。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
此外,在本申请的描述中,除非另有说明,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
在现有的机器学习技术中,当涉及特征提取时,技术人员往往会把卷积神经网络(CNN)作为最优解,诚然卷积神经网络在深度学习过程中表现优异,但仍有不可避免的缺陷,即:一旦将检测目标平移,旋转或加上边框等,这些干扰将会被CNN识别成其他目标,也即卷积神经网络在人类视觉系统上的表现很差,往往会忽略子结构之间的关系。
究其原因,是因为CNN使用卷积层获取特征矩阵,为了在神经元的活动中实现视角不变性,会通过最大池化持续地搜寻二维特征矩阵的区域,以选取每个区域中最大的数字作为输出结果。而使用最大池的缺点就是丢失了有价值的信息,也没能处理特征之间的相对空间关系。
但是胶囊神经网络则不同,胶囊中有关特征的状态的重要信息,都将以向量的形式被胶囊封装。胶囊将特征检测的概率作为其输出向量的长度进行编码。检测出的特征的状态被编码为该向量指向的方向。所以,当检测出的特征在图像中移动或其状态不知怎的发生变化时,概率仍然保持不变(向量长度没有改变),但其方向改变。而本申请实施例基于对上述CNN与胶囊神经网络的优劣对比与分析,最终确定:在交通标识识别的场景中,胶囊神经网络的活动等变性,显然要优于CNN的不变性。
基于上述构思及背景技术,如图1所示,本申请实施例提供了一种基于人工智能的交通标识识别方法,具体包括如下方法步骤:
S201:获取交通标识图像。
交通标识图像由车载拍照或录像设备获取,具体可以是行车记录仪等设备,在一些其他的例子中也可以是带有拍照或录像功能的智能设备,例如智能手机、智能手表、平板电脑等移动终端。交通标识图像一般为包含交通标识信息的道路图像。
在采集到交通标识图像后,还需要对原始图像进行一定的预处理。在一个具体的例子中,在采集到原始图像之后,先对原始图像进行格式转换,将原始图像统一为JPEG或PNG格式,再根据预设的图像尺寸,统一获取到的图像的大小,在完成图像格式与尺寸的统一后将便于后续通过神经网络对交通标识特征的提取。
S202:通过将所述交通标识图像输入预训练的胶囊神经网络模型,获取交通标识特征向量。
所述胶囊神经网络模型在预训练时所使用的数据集可以是通过互联网下载现有的图片数据集,也可以通过在城市道路上拍摄图片制作数据集。在获取到训练用数据集后,将训练用数据集分为训练集、验证集和测试集,其中,训练集用于训练模型,验证集用于调整模型参数,测试集用于测试模型的准确率。
在一个优选的实施例中,通过胶囊神经网络模型获取交通标识特征向量具体包括如下步骤:
S2021:通过对所述交通标识图像进行多层卷积操作,获取特征图;
S2022:对所述特征图进行胶囊化处理,将每个所述特征图中的每个像素点映射为一个胶囊;
S2023:通过动态路由算法,计算各所述胶囊之间的路由权重;
S2024:根据所述路由权重,计算全部所述胶囊的所述输出向量;
S2025:将全部所述输出向量进行拼接,获取所述交通标识特征向量。
在一个具体的实施例中,假设输入交通标识图像大小为H×W×C,其中H、W、C分别表示图像的高、宽和通道数。经过多层卷积操作后,得到的特征图大小为H′×W′×C′,其中H′、W′、C′分别表示特征图的高、宽和通道数。接着,将每个特征图中的每个像素点映射为一个胶囊,胶囊的维度为D。将所述特征图中的每个像素点映射为一个胶囊i,计算每一个所述胶囊i对应的所述输出向量,所述输出向量vi的计算式为:
其中,ci为所述胶囊i的输入向量,其计算式为:
其中,aij表示所述胶囊i与另一胶囊j之间的所述路由权重,Wij表示所述胶囊i到所述胶囊j的权重矩阵,uj表示所述胶囊j的输出向量;
所述路由权重aij的计算式为:
其中,bij是所述胶囊i到所述胶囊j的预测向量与所述胶囊j的输出向量之间的点积,即:
bij=vj·Wijuj
将全部所述输出向量vi进行拼接,获取所述交通标识特征向量f。
S203:将所述交通标识特征向量输入预训练的算法模型进行分类,获取交通标识识别结果。
在一个优选实施例中,步骤203还包括如下方法步骤:
S2031:根据所述交通标识特征向量各个特征之间的相对距离,计算相对距离权重;
S2032:根据所述相对距离权重,对所述交通标识特征向量进行选择,生成第一特征子集;
S2033:将所述第一特征子集输入第一随机森林算法模型,获取各决策树的准确度排序;
S2034:获取所述准确度排序前k个所述决策树的对应特征子集,生成第二特征子集;
S2035:将所述第二特征子集输入第二随机森林算法模型,确认所述第二随机森林算法模型的投票结果即为所述交通标识识别结果。
在一个具体的分类模型训练的例子中,假设经过特征提取后的样本数据有m个样本和n个特征,其中第i个特征的取值为xi。对于每个特征i,计算它与其他所有特征之间的距离矩阵Di,并将距离值归一化为[0,1]之间的值。然后,对于每个样本j,计算它与其他所有样本之间的距离向量并将其归一化为[0,1]之间的值。最后,计算每个特征i的相对距离权重/>
其中Di是距离矩阵,是样本j的距离向量,Di(x,y)是距离矩阵中x和y的距离值,对于每个特征,选择与之相关性最高的前k个特征进行训练。
在进行特征选择后,通过两个随机森林层来对被选择特征进行分类:第一层随机森林用于选择子特征集,第二层随机森林用于对子特征集进行分类。具体来说,先从原始特征集中随机选择一部分特征,然后在第一层随机森林中训练多个决策树,每个决策树使用不同的特征子集进行训练。然后,对于每个决策树,记录其在训练集上的分类准确度,并根据准确度进行排序。接下来,选择前k个准确度最高的决策树,将它们的特征子集合并为一个新的特征子集,然后用这个特征子集训练第二层随机森林。最终的分类结果即是第二层随机森林的投票结果。
本申请实施例通过获取交通标识图像,再将其输入胶囊神经网络,通过动态路由算法获取各个胶囊的输出向量,将输出向量拼接成交通标识特征向量,再通过计算各个特征向量之间的相对距离计算相对距离权重,并根据相对距离权重,选择相关性较高的特征向量通过两层随机森林算法对其进行分类,其中第一随机森林算法模型用于获取准确度排序最高的特征子集,第二随机森林算法用于对上述特征子集进行投票,并输出投票结果作为最终交通标识识别结果。本申请实施例相比传统的交通标识识别方法更能够适应目标的方向、姿态等变化,表达多个特征之间的关系;在特征选择方法中,采用相对距离权重方法,减少了对噪声和冗余特征的依赖;采用双层随机森林算法,通过选择最佳的子特征集和投票方法来提高特征的选择精度和分类器的准确性。
本申请实施例还提供了一种基于人工智能的交通标识识别装置300,如图2所示,包括:
交通图像获取模块301,用于获取交通标识图像;
特征向量获取模块302,用于通过将所述交通标识图像输入预训练的胶囊神经网络模型,获取交通标识特征向量;
识别结果获取模块303,用于将所述交通标识特征向量输入预训练的算法模型进行分类,获取交通标识识别结果。
在一个示例性的例子中,特征向量获取模块302,还包括:
特征图获取单元,用于通过对所述交通标识图像进行多层卷积操作,获取特征图;
胶囊映射单元,用于对所述特征图进行胶囊化处理,将每个所述特征图中的每个像素点映射为一个胶囊;
路由权重计算单元,用于通过动态路由算法,计算各所述胶囊之间的路由权重;
输出向量计算单元,用于根据所述路由权重,计算全部所述胶囊的所述输出向量;
输出向量拼接单元,用于将全部所述输出向量进行拼接,获取所述交通标识特征向量。
在一个示例性的例子中,识别结果获取模块303,还包括:
相对距离权重计算单元,用于根据所述交通标识特征向量各个特征之间的相对距离,计算相对距离权重;
第一特征子集生成单元,用于根据所述相对距离权重,对所述交通标识特征向量进行选择,生成第一特征子集;
决策树排序单元,用于将所述第一特征子集输入第一随机森林算法模型,获取各决策树的准确度排序;
第二特征子集生成单元,用于获取所述准确度排序前k个所述决策树的对应特征子集,生成第二特征子集;
识别结果确认单元,用于将所述第二特征子集输入第二随机森林算法模型,确认所述第二随机森林算法模型的投票结果即为所述交通标识识别结果。
需要说明的是,上述实施例提供的一种基于人工智能的交通标识识别装置与一种基于人工智能的交通标识识别方法属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
如图3所示,图3是本申请实施例根据一示例性实施例示出的一种电子设备的结构框图。
所述电子设备包括处理器910和存储器920。该主控芯片中处理器910的数量可以是一个或者多个,图3中以一个处理器910为例。该主控芯片中存储器920的数量可以是一个或者多个,图3中以一个存储器920为例。
存储器920作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本申请实施例任意实施例所述的一种基于人工智能的交通标识识别方法程序,以及本申请实施例任意实施例所述的一种基于人工智能的交通标识识别方法对应的程序指令/模块。存储器920可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据设备的使用所创建的数据等。此外,存储器920可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器920可进一步包括相对于处理器910远程设置的存储器,这些远程存储器可以通过网络连接至设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
处理器910通过运行存储在存储器920中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述任一实施例所记载的一种基于人工智能的交通标识识别方法。
本申请实施例还提供了一种计算机可读存储介质,其上储存有计算机程序,该计算机程序被处理器执行时实现上述任意一个实施例所述的一种基于人工智能的交通标识识别方法。
本发明可采用在一个或多个其中包含有程序代码的存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。计算机可读储存介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其它数据。计算机的存储介质的例子包括但不限于:相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其它类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其它内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其它光学存储、磁盒式磁带,磁带磁磁盘存储或其它磁性存储设备或任何其它非传输介质,可用于存储可以被计算设备访问的信息。
应当理解的是,本申请实施例并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请实施例的范围仅由所附的权利要求来限制。
以上所述实施例仅表达了本申请实施例的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请实施例构思的前提下,还可以做出若干变形和改进,这些都属于本申请实施例的保护范围。
Claims (10)
1.一种基于人工智能的交通标识识别方法,其特征在于,所述方法包括如下步骤:
获取交通标识图像;
通过将所述交通标识图像输入预训练的胶囊神经网络模型,获取交通标识特征向量;
将所述交通标识特征向量输入预训练的算法模型进行分类,获取交通标识识别结果。
2.根据权利要求1所述的一种基于人工智能的交通标识识别方法,其特征在于,所述获取交通标识特征向量,具体包括如下步骤:
通过对所述交通标识图像进行多层卷积操作,获取特征图;
对所述特征图进行胶囊化处理,将每个所述特征图中的每个像素点映射为一个胶囊;
通过动态路由算法,计算各所述胶囊之间的路由权重;
根据所述路由权重,计算全部所述胶囊的所述输出向量;
将全部所述输出向量进行拼接,获取所述交通标识特征向量。
3.根据权利要求2所述的一种基于人工智能的交通标识识别方法,其特征在于,所述获取交通标识识别结果,还包括如下方法步骤:
根据所述交通标识特征向量各个特征之间的相对距离,计算相对距离权重;
根据所述相对距离权重,对所述交通标识特征向量进行选择,生成第一特征子集;
将所述第一特征子集输入第一随机森林算法模型,获取各决策树的准确度排序;
获取所述准确度排序前k个所述决策树的对应特征子集,生成第二特征子集;
将所述第二特征子集输入第二随机森林算法模型,确认所述第二随机森林算法模型的投票结果即为所述交通标识识别结果。
4.根据权利要求2所述的一种基于人工智能的交通标识识别方法,其特征在于,获取所述交通标识特征向量,具体包括如下方法步骤:
将所述特征图中的每个像素点映射为一个胶囊i,计算每一个所述胶囊i对应的所述输出向量,所述输出向量vi的计算式为:
其中,ci为所述胶囊i的输入向量,其计算式为:
所述胶囊i到所述胶囊j的权重矩阵,uj表示所述胶囊j的输出向量;
将全部所述输出向量vi进行拼接,获取所述交通标识特征向量f。
5.根据权利要求4所述的一种基于人工智能的交通标识识别方法,其特征在于,计算各所述胶囊之间的路由权重,具体包括如下方法步骤:
所述路由权重aij的计算式为:
其中,bij是所述胶囊i到所述胶囊j的预测向量与所述胶囊j的输出向量之间的点积,即:
bij=vj·Wijuj
其中,Wij表示所述胶囊i到所述胶囊j的权重矩阵,uj表示所述胶囊j的输出向量。
6.一种基于人工智能的交通标识识别装置,其特征在于,包括:
交通图像获取模块,用于获取交通标识图像;
特征向量获取模块,用于通过将所述交通标识图像输入预训练的胶囊神经网络模型,获取交通标识特征向量;
识别结果获取模块,用于将所述交通标识特征向量输入预训练的算法模型进行分类,获取交通标识识别结果。
7.根据权利要求6所述的一种基于人工智能的交通标识识别装置,其特征在于,所述特征向量获取模块,还包括:
特征图获取单元,用于通过对所述交通标识图像进行多层卷积操作,获取特征图;
胶囊映射单元,用于对所述特征图进行胶囊化处理,将每个所述特征图中的每个像素点映射为一个胶囊;
路由权重计算单元,用于通过动态路由算法,计算各所述胶囊之间的路由权重;
输出向量计算单元,用于根据所述路由权重,计算全部所述胶囊的所述输出向量;
输出向量拼接单元,用于将全部所述输出向量进行拼接,获取所述交通标识特征向量。
8.根据权利要求7所述的一种基于人工智能的交通标识识别装置,其特征在于,所述识别结果获取模块,还包括:
相对距离权重计算单元,用于根据所述交通标识特征向量各个特征之间的相对距离,计算相对距离权重;
第一特征子集生成单元,用于根据所述相对距离权重,对所述交通标识特征向量进行选择,生成第一特征子集;
决策树排序单元,用于将所述第一特征子集输入第一随机森林算法模型,获取各决策树的准确度排序;
第二特征子集生成单元,用于获取所述准确度排序前k个所述决策树的对应特征子集,生成第二特征子集;
识别结果确认单元,用于将所述第二特征子集输入第二随机森林算法模型,确认所述第二随机森林算法模型的投票结果即为所述交通标识识别结果。
9.一种电子设备,其特征在于,包括:
至少一个存储器以及至少一个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1至5任一项所述的一种基于人工智能的交通标识识别方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述的一种基于人工智能的交通标识识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310427414.1A CN116486372A (zh) | 2023-04-19 | 2023-04-19 | 一种基于人工智能的交通标识识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310427414.1A CN116486372A (zh) | 2023-04-19 | 2023-04-19 | 一种基于人工智能的交通标识识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116486372A true CN116486372A (zh) | 2023-07-25 |
Family
ID=87217220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310427414.1A Pending CN116486372A (zh) | 2023-04-19 | 2023-04-19 | 一种基于人工智能的交通标识识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116486372A (zh) |
-
2023
- 2023-04-19 CN CN202310427414.1A patent/CN116486372A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11256960B2 (en) | Panoptic segmentation | |
Lu et al. | Driver action recognition using deformable and dilated faster R-CNN with optimized region proposals | |
CN114202672A (zh) | 一种基于注意力机制的小目标检测方法 | |
KR101896357B1 (ko) | 객체를 검출하는 방법, 디바이스 및 프로그램 | |
JP2017062781A (ja) | 深層cnnプーリング層を特徴として用いる、類似度に基づく重要な対象の検知 | |
CN111126258A (zh) | 图像识别方法及相关装置 | |
US11676005B2 (en) | Method and system for deep neural networks using dynamically selected feature-relevant points from a point cloud | |
CN113468978B (zh) | 基于深度学习的细粒度车身颜色分类方法、装置和设备 | |
KR102140805B1 (ko) | 위성 영상의 물체 식별을 위한 뉴럴 네트워크 학습 방법 및 장치 | |
US11657291B2 (en) | Spatio-temporal embeddings | |
CN116052026B (zh) | 一种无人机航拍图像目标检测方法、系统及存储介质 | |
US11308324B2 (en) | Object detecting system for detecting object by using hierarchical pyramid and object detecting method thereof | |
CN112801236A (zh) | 图像识别模型的迁移方法、装置、设备及存储介质 | |
Fan et al. | A novel sonar target detection and classification algorithm | |
Li et al. | Detection of road objects based on camera sensors for autonomous driving in various traffic situations | |
CN117157679A (zh) | 感知网络、感知网络的训练方法、物体识别方法及装置 | |
CN113673308A (zh) | 对象识别方法、装置和电子系统 | |
CN116958687A (zh) | 一种基于改进detr的面向无人机的小目标检测方法及装置 | |
CN111178370A (zh) | 车辆检索方法及相关装置 | |
CN116486372A (zh) | 一种基于人工智能的交通标识识别方法及装置 | |
CN113065637B (zh) | 一种感知网络及数据处理方法 | |
CN110942179A (zh) | 一种自动驾驶路线规划方法、装置及车辆 | |
CN117372789B (zh) | 图像分类方法及图像分类装置 | |
EP4064126B1 (en) | Methods for training and testing perception network by using images obtained from multiple imaging devices having diverse specifications and learning device and testing device using the same | |
WO2023029704A1 (zh) | 数据处理方法、装置和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |