CN114581861A - 一种基于深度学习卷积神经网络的轨道区域识别方法 - Google Patents
一种基于深度学习卷积神经网络的轨道区域识别方法 Download PDFInfo
- Publication number
- CN114581861A CN114581861A CN202210205004.8A CN202210205004A CN114581861A CN 114581861 A CN114581861 A CN 114581861A CN 202210205004 A CN202210205004 A CN 202210205004A CN 114581861 A CN114581861 A CN 114581861A
- Authority
- CN
- China
- Prior art keywords
- track area
- track
- network model
- convolution
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明提供了一种基于深度学习卷积神经网络的轨道区域识别方法。该方法包括:获取不同场景下含轨道区域的图像,组成轨道图像数据集;构建轨道区域识别网络模型,该轨道区域识别网络模型包括多个卷积层和上采样层,利用轨道图像数据集对轨道区域识别网络模型进行训练,得到训练好的轨道区域识别网络模型;使用训练好的轨道区域识别网络模型对待识别场景下的轨道区域进行识别,得到待识别场景下的轨道区域的识别结果。本发明方法在深度残差卷积神经网络可以更加有效地提取到图像特征,深层特征与浅层特征的融合使得提取的轨道边界更加清晰,轻量化模型的运行环境更加具有普适性,适用于不同场景和不同尺寸下的轨道区域场景图像。
Description
技术领域
本发明涉及铁路运营管理技术领域,尤其涉及一种基于深度学习卷积神经网络的轨道区域识别方法。
背景技术
近几年来我国铁路快速发展,运营铁路线路不断增多,线路分布也比较广泛,列车的安全运营需要得到保障。如果线路周界范围内有行人或异物入侵,将影响列车的正常运营,甚至会严重威胁到列车和乘客的安全,导致严重的事故。精准识别轨道区域是判断轨道异物入侵行为的前提条件,轨道区域可包含轨道及两旁路基区域,现实中含有轨道区域的场景比较复杂,具有形状不规则、边界不明显的特点,所以需要一种算法能够实现不规则轨道区域的精准识别与正确分割。
现有的轨道区域识别算法分为传统识别算法和深度学习算法。传统的识别算法主要是利用传统图像处理和霍夫直线变换实现轨道区域的识别。该算法检测速度快,但是其检测精度很低,并且适合的场景非常单一,不能够满足多种复杂场景下轨道区域的识别和分割。兴起用于区域识别和分割的深度学习算法为语义分割算法。语义分割算法分类较多,比如BiSenet算法和Fast SCNN算法等,这些算法以卷积神经网络为主,需要学习大量含有轨道区域的场景图像,建立的模型实现轨道区域识别的效果,但这些卷积神经网络模型较大,对运行环境要求较高。
发明内容
本发明提供了一种基于深度学习卷积神经网络的轨道区域识别方法,以实现有效地识别铁路轨道区域。
为了实现上述目的,本发明采取了如下技术方案。
一种基于深度学习卷积神经网络的轨道区域识别方法,包括:
获取不同场景下含轨道区域的图像,组成轨道图像数据集;
构建轨道区域识别网络模型,该轨道区域识别网络模型包括多个卷积层和上采样层,利用所述轨道图像数据集对所述轨道区域识别网络模型进行训练,得到训练好的轨道区域识别网络模型;
使用训练好的轨道区域识别网络模型对待识别场景下的轨道区域进行识别,得到所述待识别场景下的轨道区域的识别结果。
优选地,所述轨道区域识别网络模型包括64个卷积层和8个上采样操作,64个卷积层包括10个单一卷积层和18个残差块。
优选地,所述的利用所述轨道图像数据集对所述轨道区域识别网络模型进行训练,得到训练好的轨道区域识别网络模型,包括:
步骤2.1,将轨道图像数据集输入到轨道区域识别网络模型,使用3*3的卷积核对轨道图像数据集中含有轨道区域的图像进行卷积运算,该卷积运算的步长为2,通道数为32,得到第一层的输出结果F1;
步骤2.2,将第一层的输出结果F1输入含有18个大小不同的卷积核所构成的残差块组Group1,得到两个输出结果skip1和result2;
步骤2.6,将输出结果F3进行4次上采样,得到输出结果F4;
步骤2.7,通过基于PyTorch的连接函数2将F4和进行连接,并将连接结果输入2个3*3步长为1的卷积层,对所述2个3*3卷积层的输出进行4次上采样后输入1*1卷积层,得到输出结果F5,所述基于PyTorch的连接函数2如下所示:
步骤2.8,使用损失函数softmax对输出结果F5进行激活,得到训练好的轨道区域识别网络模型。
优选地,所述的残差块组Group1含有18个残差块,每个残差块包含3个卷积层,两个归一化函数,两个ReLU6激活函数;
Group1的18个残差块中包括10种类型残差块,包含两个1*1卷积层,一个3*3深度能够分离卷积层,通道数分别为16、24、24、32、32、64、64、96、160和320,步长为1、2、1、2、1、1/2、1、1、1和1。
优选地,所述的卷积组Group2的卷积核分别是1*1、3*3、3*3和3*3,空洞率rate分别是1、6、12和18。
优选地,所述的损失函数Loss为交叉熵损失函数,计算公式为:
输入样本共有N个,一共有C个类别,某一个样本i的真实分类用yi表示,yi是C个类别中的某一类,而预测分类用向量表示h=(h1,h2,...,hC),该样本的预测分类用hi表示。
由上述本发明的实施例提供的技术方案可以看出,本发明实施例的基于深度学习卷积神经网络的轨道区域识别方法在深度残差卷积神经网络可以更加有效地提取到图像特征,深层特征与浅层特征的融合使得提取的轨道边界更加清晰,轻量化模型的运行环境更加具有普适性,适用于不同场景和不同尺寸下的轨道区域场景图像。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于深度学习卷积神经网络的轨道区域识别方法的实现原理图;
图2为本发明实施例提供的一种基于深度学习卷积神经网络的轨道区域识别方法的具体处理流程图;
图3为本发明实施例提供的一种轨道区域识别网络残差块结构图;
图4为现有算法对测试图像的轨道识别效果对比图;
图5为采用本发明实施例的对轨道区域识别的效果对比图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样定义,不会用理想化或过于正式的含义来解释。
为便于对本发明实施例的理解,下面将结合附图以几个具体实施例为例做进一步的解释说明,且各个实施例并不构成对本发明实施例的限定。
本发明实施例提供的一种基于深度学习卷积神经网络的轨道区域识别方法的实现原理图如图1所示,具体处理流程如图2所示,包括以下步骤:
步骤S1,获取不同场景下含轨道区域的图像,组成轨道图像数据集;
步骤S2,构建轨道区域识别网络模型,利用轨道图像数据集对轨道区域识别网络模型进行训练,得到训练好的轨道区域识别网络模型;
所述步骤S2具体包括以下步骤:
步骤2.1,构建轨道区域识别网络模型,该轨道区域识别网络模型包括64个卷积层和8个上采样操作,64个卷积层包括10个单一卷积层和18个残差块。图3为本发明实施例提供的一种轨道区域识别网络模型的残差块结构图。
将轨道图像数据集输入到轨道区域识别网络模型,使用3*3的卷积核对轨道图像数据集中含有轨道区域的图像进行卷积运算,步长为2,通道数为32,得到第一层的输出结果F1;
步骤2.2,将第一层的输出结果F1输入含有18个大小不同的卷积核所构成的残差块组,命名为Group1,得到两个输出结果skip1和result2;
Group1含有18个残差块,每个残差块包含3个卷积层,两个归一化函数,两个ReLU6激活函数。
Group1的18个残差块中包括10种类型残差块,包含两个1*1卷积层,一个3*3深度可分离卷积层,通道数分别为16、24、24、32、32、64、64、96、160和320,步长为1、2、1、2、1、1/2、1、1、1和1。
Group2的卷积核分别是1*1、3*3、3*3和3*3,空洞率rate分别是1、6、12和18。
步骤2.6,将输出结果F3进行4次上采样,得到输出结果F4;
步骤2.7,通过基于PyTorch的连接函数2将F4和进行连接,并将输出结果输入2个3*3卷积层,步长为1,对输出进行4次上采样后输入1*1卷积层,得到输出结果F5,上述基于PyTorch的连接函数2如下所示:
步骤2.8,使用损失函数softmax对输出结果F5进行激活,得到训练好的轨道区域识别网络模型。
步骤S3,使用训练好的轨道区域识别网络模型对待识别场景下的轨道区域进行识别,得到待识别场景下的轨道区域的识别结果,实现轨道区域的准确识别。
具体的,所述损失函数Loss为交叉熵损失函数,本发明方法是图像逐像素地判断是否为轨道区域分类,通过逐个对比每个像素得到损失值,整个图像的损失就是每个像素的损失求平均。另外交叉熵损失函数求导简单且收敛快,其计算公式为:
其中,输入样本共有N个,一共有C个类别,某一个样本i的真实分类用yi表示,yi是C个类别中的某一类,而预测分类用向量表示h=(h1,h2,...,hC),该样本的预测分类用hi表示。
具体的,学习率设置为0.007,Epoch设置为200,在PyTorch框架下进行训练。
为了验证本发明的有效性和优越性,选取150张验证集进行验证。本发明在训练模型时不包括测试图像,选取30张图像进行测试,与现有的算法进行对比,图4为现有算法对测试图像的轨道识别效果对比图,图5为采用本发明实施例的对轨道区域识别的效果对比图。具体包括BiSenet算法和Fast SCNN算法。所有算法在Intel(R)Core(TM)i5-7200U低端处理器上测试。
本发明方法选取MIoU和pixAcc指标作为检测精度指标,FPS为检测速度指标。MIoU和pixACC越大表示输出图像识别分割效果越好,二者的最大值均为1,越接近1表示图像分割越准确,表1展示测试图像三种算法的检测精度、速度评价指标值对比。
表1:轨道识别算法测试图像的评价指标对比
由表1可以看出,本发明的MIoU值大于其他算法MIoU值,而本发明的pixACC值也大于其他算法的pixACC值,从而证明了本发明能够取得更好的轨道区域识别效果。本发明的检测速度也比Fast SCNN算法快,与BiSenet算法相近,检测速度也基本满足实时性。
综上所述,本发明实施例的基于深度学习卷积神经网络的轨道区域识别方法在深度残差卷积神经网络可以更加有效地提取到图像特征,深层特征与浅层特征的融合使得提取的轨道边界更加清晰,轻量化模型的运行环境更加具有普适性,适用于不同场景和不同尺寸下的轨道区域场景图像。通过构建轻量化卷积残差块网络提取轨道区域特征,从而更加准确、迅速地识别轨道区域,解决轨道边界识别不准确问题。
本发明实施例的深度残差卷积神经网络可以更加有效地提取到图像特征,深层特征与浅层特征的融合使得提取的轨道边界更加清晰,轻量化模型的运行环境更加具有普适性,适用于不同场景和不同尺寸下的轨道区域场景图像。
本领域普通技术人员可以理解:附图只是一个实施例的示意图,附图中的模块或流程并不一定是实施本发明所必须的。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的装置及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。
Claims (6)
1.一种基于深度学习卷积神经网络的轨道区域识别方法,其特征在于,包括:
获取不同场景下含轨道区域的图像,组成轨道图像数据集;
构建轨道区域识别网络模型,该轨道区域识别网络模型包括多个卷积层和上采样层,利用所述轨道图像数据集对所述轨道区域识别网络模型进行训练,得到训练好的轨道区域识别网络模型;
使用训练好的轨道区域识别网络模型对待识别场景下的轨道区域进行识别,得到所述待识别场景下的轨道区域的识别结果。
2.根据权利要求1所述的方法,其特征在于,所述轨道区域识别网络模型包括64个卷积层和8个上采样操作,64个卷积层包括10个单一卷积层和18个残差块。
3.根据权利要求1或者2所述的方法,其特征在于,所述的利用所述轨道图像数据集对所述轨道区域识别网络模型进行训练,得到训练好的轨道区域识别网络模型,包括:
步骤2.1,将轨道图像数据集输入到轨道区域识别网络模型,使用3*3的卷积核对轨道图像数据集中含有轨道区域的图像进行卷积运算,该卷积运算的步长为2,通道数为32,得到第一层的输出结果F1;
步骤2.2,将第一层的输出结果F1输入含有18个大小不同的卷积核所构成的残差块组Group1,得到两个输出结果skip1和result2;
步骤2.6,将输出结果F3进行4次上采样,得到输出结果F4;
步骤2.7,通过基于PyTorch的连接函数2将F4和进行连接,并将连接结果输入2个3*3步长为1的卷积层,对所述2个3*3卷积层的输出进行4次上采样后输入1*1卷积层,得到输出结果F5,所述基于PyTorch的连接函数2如下所示:
步骤2.8,使用损失函数softmax对输出结果F5进行激活,得到训练好的轨道区域识别网络模型。
4.根据权利要求3所述的方法,其特征在于,所述的残差块组Group1含有18个残差块,每个残差块包含3个卷积层,两个归一化函数,两个ReLU6激活函数;
Group1的18个残差块中包括10种类型残差块,包含两个1*1卷积层,一个3*3深度能够分离卷积层,通道数分别为16、24、24、32、32、64、64、96、160和320,步长为1、2、1、2、1、1/2、1、1、1和1。
5.根据权利要求3所述的方法,其特征在于,所述的卷积组Group2的卷积核分别是1*1、3*3、3*3和3*3,空洞率rate分别是1、6、12和18。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210205004.8A CN114581861B (zh) | 2022-03-02 | 2022-03-02 | 一种基于深度学习卷积神经网络的轨道区域识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210205004.8A CN114581861B (zh) | 2022-03-02 | 2022-03-02 | 一种基于深度学习卷积神经网络的轨道区域识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114581861A true CN114581861A (zh) | 2022-06-03 |
CN114581861B CN114581861B (zh) | 2023-05-23 |
Family
ID=81772103
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210205004.8A Active CN114581861B (zh) | 2022-03-02 | 2022-03-02 | 一种基于深度学习卷积神经网络的轨道区域识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114581861B (zh) |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709511A (zh) * | 2016-12-08 | 2017-05-24 | 华中师范大学 | 基于深度学习的城市轨道交通全景监控视频故障检测方法 |
CN108629368A (zh) * | 2018-03-28 | 2018-10-09 | 天津师范大学 | 一种基于联合深度融合的多模态地基云分类方法 |
CN108875696A (zh) * | 2018-07-05 | 2018-11-23 | 五邑大学 | 基于深度可分离卷积神经网络的脱机手写汉字识别方法 |
CN109859120A (zh) * | 2019-01-08 | 2019-06-07 | 北京交通大学 | 基于多尺度残差网络的图像去雾方法 |
CN110046656A (zh) * | 2019-03-28 | 2019-07-23 | 南京邮电大学 | 基于深度学习的多模态场景识别方法 |
CN110929603A (zh) * | 2019-11-09 | 2020-03-27 | 北京工业大学 | 一种基于轻量级卷积神经网络的天气图像识别方法 |
CN111079821A (zh) * | 2019-12-12 | 2020-04-28 | 哈尔滨市科佳通用机电股份有限公司 | 一种脱轨自动制动拉环脱落故障图像识别方法 |
CN111144418A (zh) * | 2019-12-31 | 2020-05-12 | 北京交通大学 | 一种铁路轨道区域分割提取的方法 |
AU2020101229A4 (en) * | 2020-07-02 | 2020-08-06 | South China University Of Technology | A Text Line Recognition Method in Chinese Scenes Based on Residual Convolutional and Recurrent Neural Networks |
WO2020244261A1 (zh) * | 2019-06-05 | 2020-12-10 | 中国科学院长春光学精密机械与物理研究所 | 高分辨率遥感图像的场景识别系统及模型生成方法 |
AU2020103901A4 (en) * | 2020-12-04 | 2021-02-11 | Chongqing Normal University | Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field |
-
2022
- 2022-03-02 CN CN202210205004.8A patent/CN114581861B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106709511A (zh) * | 2016-12-08 | 2017-05-24 | 华中师范大学 | 基于深度学习的城市轨道交通全景监控视频故障检测方法 |
CN108629368A (zh) * | 2018-03-28 | 2018-10-09 | 天津师范大学 | 一种基于联合深度融合的多模态地基云分类方法 |
CN108875696A (zh) * | 2018-07-05 | 2018-11-23 | 五邑大学 | 基于深度可分离卷积神经网络的脱机手写汉字识别方法 |
CN109859120A (zh) * | 2019-01-08 | 2019-06-07 | 北京交通大学 | 基于多尺度残差网络的图像去雾方法 |
CN110046656A (zh) * | 2019-03-28 | 2019-07-23 | 南京邮电大学 | 基于深度学习的多模态场景识别方法 |
WO2020244261A1 (zh) * | 2019-06-05 | 2020-12-10 | 中国科学院长春光学精密机械与物理研究所 | 高分辨率遥感图像的场景识别系统及模型生成方法 |
CN110929603A (zh) * | 2019-11-09 | 2020-03-27 | 北京工业大学 | 一种基于轻量级卷积神经网络的天气图像识别方法 |
CN111079821A (zh) * | 2019-12-12 | 2020-04-28 | 哈尔滨市科佳通用机电股份有限公司 | 一种脱轨自动制动拉环脱落故障图像识别方法 |
CN111144418A (zh) * | 2019-12-31 | 2020-05-12 | 北京交通大学 | 一种铁路轨道区域分割提取的方法 |
AU2020101229A4 (en) * | 2020-07-02 | 2020-08-06 | South China University Of Technology | A Text Line Recognition Method in Chinese Scenes Based on Residual Convolutional and Recurrent Neural Networks |
AU2020103901A4 (en) * | 2020-12-04 | 2021-02-11 | Chongqing Normal University | Image Semantic Segmentation Method Based on Deep Full Convolutional Network and Conditional Random Field |
Non-Patent Citations (1)
Title |
---|
张珂 等: "图像分类的深度卷积神经网络模型综述", 中国图像图形学报 * |
Also Published As
Publication number | Publication date |
---|---|
CN114581861B (zh) | 2023-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108171176B (zh) | 一种基于深度学习的地铁司机情绪辨识方法及装置 | |
CN110084202B (zh) | 一种基于高效三维卷积的视频行为识别方法 | |
CN110084151A (zh) | 基于非局部网络深度学习的视频异常行为判别方法 | |
CN106354816A (zh) | 一种视频图像处理方法及装置 | |
CN112541501A (zh) | 一种基于视觉语言建模网络的场景文字识别方法 | |
CN110532925B (zh) | 基于时空图卷积网络的驾驶员疲劳检测方法 | |
CN109543760A (zh) | 基于图像滤镜算法的对抗样本检测方法 | |
Wang et al. | Spatial–temporal pooling for action recognition in videos | |
WO2021068781A1 (zh) | 一种疲劳状态识别方法、装置和设备 | |
CN110765921A (zh) | 一种基于弱监督学习和视频时空特征的视频物体定位方法 | |
CN107396095A (zh) | 一种无参考三维图像质量评价方法 | |
CN110826462A (zh) | 一种非局部双流卷积神经网络模型的人体行为识别方法 | |
Luo et al. | Traffic analytics with low-frame-rate videos | |
KR20110080224A (ko) | 유해 동영상 검출장치 및 그 방법 | |
CN112308148A (zh) | 缺陷类别识别、孪生神经网络训练方法、装置及存储介质 | |
CN109753906A (zh) | 基于域迁移的公共场所异常行为检测方法 | |
CN112614102A (zh) | 一种车辆检测方法、终端及其计算机可读存储介质 | |
CN113963170A (zh) | 一种基于交互式特征融合的rgbd图像显著性检测方法 | |
CN112395953A (zh) | 一种道面异物检测系统 | |
CN110287981B (zh) | 基于生物启发性表征学习的显著性检测方法及系统 | |
CN103177264B (zh) | 基于视觉词典全局拓扑表达的图像分类方法 | |
CN114581861B (zh) | 一种基于深度学习卷积神经网络的轨道区域识别方法 | |
CN116704609A (zh) | 基于时序注意力的在线手卫生评估方法及系统 | |
CN105678268A (zh) | 一种基于双区域学习的地铁站场景行人计数实现方法 | |
CN115393802A (zh) | 一种基于小样本学习的铁路场景不常见入侵目标识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |