CN112329682A - 一种基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法 - Google Patents
一种基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法 Download PDFInfo
- Publication number
- CN112329682A CN112329682A CN202011276593.6A CN202011276593A CN112329682A CN 112329682 A CN112329682 A CN 112329682A CN 202011276593 A CN202011276593 A CN 202011276593A CN 112329682 A CN112329682 A CN 112329682A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- crossing
- road
- intention
- cross
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000009471 action Effects 0.000 title claims abstract description 49
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000001514 detection method Methods 0.000 claims abstract description 18
- 238000013528 artificial neural network Methods 0.000 claims abstract description 16
- 238000012545 processing Methods 0.000 claims description 17
- 238000013527 convolutional neural network Methods 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 13
- 241000283070 Equus zebra Species 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 3
- 210000002569 neuron Anatomy 0.000 claims description 3
- 230000033001 locomotion Effects 0.000 abstract description 18
- 230000008569 process Effects 0.000 abstract description 6
- 230000004927 fusion Effects 0.000 abstract description 4
- 230000006399 behavior Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000010606 normalization Methods 0.000 description 5
- 238000011176 pooling Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明涉及一种基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法,首先通过faster‑RCNN进行行人检测,进一步利用行人的运动信息搜索感兴趣目标,提取感兴趣目标的运动序列、周围交通场景序列以及轨迹位置;其次设计了一种三维卷积神经网络来处理感兴趣目标的运动序列,得到与行人穿越马路意图相关的行为特征;然后本发明根据行人所处的局部交通场景的要素以及车辆行驶速度得到两个权重,来修正人‑车距离,并将修正后的距离送到多层感知机进行编码,得到与行人穿越马路意图相关的距离特征;最后将行为特征和距离特征进行信息融合,利用全连接层将融合后的特征降维,并通过softmax操作得到行人是否穿越马路的结果。
Description
技术领域
本发明涉及智能交通技术领域,具体涉及行人检测与分析领域,尤其是一种基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法。
背景技术
随着人工智能、传感器以及控制理论的不断发展,无人车引起了学界和工业界的广泛关注,具有光明的应用前景。但是,无人车也需要保证其它道路使用者的权利,尤其是要保证较为弱势的行人的权利,这就要求无人车可以理解行人的行为。在行人的诸多行为中,行人穿越马路是发生最为频繁、而且与行人的安全息息相关的行为。驾驶员可以通过简单的语言/非语言沟通感知行人是否会穿越马路,但是无人车仍然难以在高效通行和保证行人安全两者间达到较好的平衡。
行人穿越马路意图得到了交通领域的深入研究,通常分为外部因素(交通场景的布局、交通流量以及天气情况等)和内部因素(性别、年龄、时间压力等)。完全准确地感知行人是否有穿越马路的意图非常困难,但是,行人的注视来车、摆手以及腿部运动等行为揭示了其有较强的可能会进行穿越;同时,交通场景对行人是否穿越也有较大的影响。在红绿灯路口或者设有行人标志的路口,行人穿越的可能性越高;另外,行人距离车的距离越远,车辆的行驶速度越慢,行人就越有可能穿越马路。
利用计算机视觉技术,研究者可以提取行人的轮廓信息、形状信息以及历史运动信息来判断行人是否有穿越马路的意图,但是精度不高。随着深度学习技术的发展,研究者提取了行人的骨骼图,并根据骨骼图的运动模式来判断行人是否会进行穿越,具有较高的精度,但是准确提取骨骼图受到距离因素的限制。
发明内容
本发明要解决的技术问题是:为了克服现有技术中之不足,本发明提供一种基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法,以其能够结合行人的动作信息、行人周围交通场景的信息、行人与车辆的距离信息以及车辆本身的速度信息来综合判断行人是否有穿越马路的意图,从而提高无人车对行人的保护能力。
本发明解决其技术问题所采用的技术方案是:一种基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法,包括以下步骤:
S1、基于运动目标检测算法,检测行人并根据其运动信息确定感兴趣目标,提取感兴趣目标序列及其局部交通场景信息;
S2、基于三维卷积神经网络提取与行人的穿越动作相关的特征;
S3、综合行人周围交通场景的信息、行人与车辆的距离信息以及车辆本身的速度进行编码,编码的特征可以反映行人是否有穿越马路的意图;
S4、融合动作识别结果与局部交通场景上下文因素对行人穿越马路的意图进行识别。
进一步,所述步骤S1具体包括:
(1)、行人检测
首先对输入图像序列进行处理,提取其中的感兴趣行人,以减少算法处理非感兴趣行人的时间开销,使用faster-RCNN目标检测器检测输入图像序列每一帧的行人,记录行人在每一帧的位置信息,并将连续帧内所有行人的位置变化信息送到下一步进行感兴趣目标搜索。
(2)、感兴趣目标搜索
得到某段时间范围内所有行人的位置变化信息后,根据该信息确定感兴趣目标,其中的感兴趣目标定义为在路边等待的行人,而不关注其它行走或奔跑的行人目标。假设行人的位置变化信息由其若干帧内的轨迹表示,令Dm和Dl分别表示轨迹内每两个时间点的平均位置变化和首尾两个时间点的位置变化,将 Dm和Dl与预先设定的阈值Tm和Tl进行比较,如果小于阈值,则表示这个行人在该时间范围内静止或指发生了轻微位置变化,认为该人为感兴趣目标;如果大于阈值,则表示这个行人处于持续移动过程中,后续无需关注该目标。对于感兴趣目标,保存其在一定时间范围内的运动序列(该序列每一帧为检测到的感兴趣行人区域)、局部交通场景序列(将检测到的感兴趣行人区域放大指定倍数后得到)以及感兴趣行人的位置序列。
所述步骤S2具体包括:
(1)、三维卷积神经网络的搭建
通过检测行人即将穿越马路的早期动作(譬如摆手、抬腿、注视来车等) 作为判断行人是否穿越马路的主要因素。为了完成早期穿越动作的检测,需要搭建三维卷积神经网络进行动作识别,本方案搭建了34层的残差三维卷积神经网络,网络由若干基本模块组成,对于每个基本模块,假设输入信号为X,首先经过F(F表示该基本模块的三维卷积滤波器数目,每个基本模块的F不同)个 3×3×3的三维卷积滤波器进行处理,然后接上批量标准化(BatchNorm)层以及线性整流函数(Rectified Linear Unit,ReLU)层进行归一化和激活操作,接着再使用F个3×3×3的三维卷积滤波器进行处理,输出的结果通过BatchNorm 层归一化处理后,和基本模块的输入进行逐元素相加操作以实现残差连接,相加后的结果经过ReLU层激活后输出。在定义了基本模块的前提下,34层的残差三维卷积神经网络结构如下:首先对输入信号使用64个3×3×3的三维卷积滤波器进行卷积处理,然后经过3×3×3的三维最大池化后输出信号;输出的信号送入第二个数据处理组块,该组块由3个基本模块串联组成,滤波器数目F 等于64;然后信号送入第三、四、五个数据处理组块,这些组块分别由4、6、 3个基本模块串联组成,基本模块的滤波器数目分别为128、256、512;最后对第五个数据处理组块输出的特征图用自适应平均池化处理得到一串向量,然后接全连接(Fullyconnected layer,FC)层进行降维操作。
(2)、基于行人分块的穿越动作识别
上述步骤搭建的三维卷积神经网络可以用于动作识别,涉及到行人穿越动作识别,需要根据先验经验对行人进行分块。考虑到行人的注视动作和腿部动作对于判断其是否有穿越意图至关重要,首先将行人分为上半身、下半身以及完整身体三个部分,分别提取这三个部分的连续图像序列,然后分别送入三维卷积神经网络进行处理,提取出与行人穿越意图相关的特征,过程可用如下公式表示:
fa=Φ(p,Wa)p∈{pup,pdown,pentire}
其中,fa表示三维卷积神经网络提取出的与行人穿越意图相关的动作特征,φ表示三维卷积神经网络,Wa表示三维神经网络的可学习参数,p表示选中的行人某个部分,pup、pdown、pentire分别表示行人的上半身、下半身以及完整身体三个部分。
所述步骤S3具体包括:
(1)、基于目标检测的交通场景上下文识别
交通场景上下文识别指识别出当前场景的交通要素,包括交通灯、斑马线以及行人标志等。常用的识别交通场景上下文的方法包括目标检测和语义分割,考虑到实时性的需求,在此利用faster-RCNN目标检测算法检测感兴趣行人的局部交通场景内的交通要素。定义交通场景权重wb表示感兴趣行人的局部交通场景内是否存在交通灯、斑马线以及行人标志等提示行人可能会穿越马路的要素,如果检测到这些要素,令wb为2,否则为1。
(2)、基于上下文因素的人-车距离编码
车辆与行人的距离很大程度上影响了行人是否会穿越马路的决策,一般来说:车辆距离行人越远,行人越倾向于穿越;车辆的速度越慢,行人越倾向于穿越;感兴趣行人的局部交通场景内有交通要素,行人越倾向于穿越。
针对人和车之间距离的计算,定义xdis和ydis分别表示人和车之间的横向和纵向距离,由于摄像头通常悬挂于车内,因此假设车辆处于底部中间的位置,根据检测到的感兴趣行人的中心位置cx和cy,xdis和ydis的计算如下:
xdis=abs(cx-W/2)/w
ydis=abs(cy-H)/h
其中,W和H分别表示图像的宽和高,w和h分别表示感兴趣行人的外接矩形框的宽和高,用来克服图像的透视畸变效应。
针对车速对行人穿越决策的影响,定义车速权重wv,根据车速的不同将wv分为5个级别,具体定义如下:
其中,fp表示所提取的距离特征,ψ表示采用的多层感知机,Wp表示多层感知机的可学习参数。
所述步骤S4具体包括:
(1)、融合动作识别与交通场景上下文因素的行人穿越马路意图识别
通过搭建的三维卷积神经网络从行人的动作中提取出与行人穿越意图相关的编码特征fa,通过综合考虑感兴趣行人周围局部交通场景的上下文要素及人- 车距离以及车的行驶速度得到上下文因素的人-车距离编码特征fp,进一步可以融合这两个编码特征,从而得到能够综合反映行人穿越意图的特征并据此判断行人是否会进行穿越。
采用直接拼接的方式融合fa与fp,并使用一个全连接层FC将融合后的特征映射成包含两个神经元的向量,最后通过softmax操作得到穿越意图(穿越/不穿越)的分类识别结果,使用交叉熵损失函数来优化整个框架,损失函数的定义如下:
LOSS=Lcross_entropy(F(fa,fp,Wf),Y)
其中,F表示所使用的全连接网络,Wf表示全连接网络的可学习参数,Y表示样本的真实标签。
本发明的有益效果是:
(1)、利用faster-RCNN进行行人检测,进一步利用检测到行人的运动信息来确定感兴趣目标,大大提高了行人穿越马路意图识别算法的效率;
(2)、利用三维卷积神经网络识别行人穿越马路的早期动作,可以有效判断行人是否有穿越马路的倾向;
(3)、通过综合分析感兴趣行人周围的交通场景要素、人-车距离因素以及车辆的速度,可以有效改善利用行为识别行人穿越马路意图的准确性。
附图说明
下面结合附图和实施例对本发明进一步说明。
图1是本发明的系统流程图。
图2是本发明中提出的基于运动目标检测的感兴趣目标搜索的示意图。
图3是本发明中提出的用于动作识别的三维卷积神经网络示意图。
图4是本发明中提出的结合动作特征与距离特征进行行人穿越意图识别的示意图。
具体实施方式
现在结合附图对本发明作进一步详细的说明。这些附图均为简化的示意图,仅以示意方式说明本发明的基本结构,因此其仅显示与本发明有关的构成。
如图1所示,一种基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法,该方法综合考虑了影响行人做出是否穿越马路决策的多个因素,包括:行人穿越马路前的一些肢体动作(摆臂、抬腿、头部注视等)、行人所处的局部交通场景的要素(红绿灯、斑马线、行人标识等)、人-车距离以及车辆行驶速度。通过faster-RCNN进行行人检测,进一步利用行人的运动信息搜索感兴趣目标,提取感兴趣目标的运动序列、周围交通场景序列以及轨迹位置。通过设计一种三维卷积神经网络来处理感兴趣目标的运动序列,得到与行人穿越马路意图相关的行为特征;并根据行人所处的局部交通场景的要素以及车辆行驶速度得到两个权重,来修正人-车距离,并将修正后的距离送到多层感知机进行编码,得到与行人穿越马路意图相关的距离特征;最后将行为特征和距离特征进行信息融合,利用全连接层将融合后的特征降维,通过softmax操作得到行人是否穿越马路的结果。
本发明的具体操作步骤如下:
图2给出了基于运动目标检测的感兴趣目标搜索的示意图。
1)、基于faster-RCNN的行人检测。
首先要对输入图像序列进行处理,提取其中的感兴趣行人,以减少算法处理非感兴趣行人的时间开销。然后使用faster-RCNN目标检测器检测输入图像序列每一帧的行人,记录行人在每一帧的位置信息,并将连续帧内所有行人的位置变化信息送到下一步进行感兴趣目标搜索。
2)、基于目标运动轨迹的感兴趣目标搜索。
得到某段时间范围内所有行人的位置变化信息后,根据该信息确定感兴趣目标。所述感兴趣目标定义为在路边等待的行人,而不关注其它行走或奔跑的行人目标。假设行人的位置变化信息由其若干帧内的轨迹表示,令Dm和Dl分别表示轨迹内每两个时间点的平均位置变化和首尾两个时间点的位置变化,将Dm和Dl与预先设定的阈值Tm和Tl进行比较,如果小于阈值,则表示这个行人在该时间范围内静止或指发生了轻微位置变化,认为该人为感兴趣目标;如果大于阈值,则表示这个行人处于持续移动过程中,后续无需关注该目标。对于感兴趣目标,保存其在一定时间范围内的运动序列(该序列每一帧为检测到的感兴趣行人区域)、局部交通场景序列(将检测到的感兴趣行人区域放大指定倍数后得到)以及感兴趣行人的位置序列。
图3给出了用于动作识别的三维卷积神经网络示意图。
3)、三维卷积神经网络的搭建。
通过检测行人即将穿越马路的早期动作(譬如摆手、抬腿、注视来车等) 作为判断行人是否穿越马路的主要因素,为了完成早期穿越动作的检测,需要搭建三维卷积神经网络进行动作识别。
采用搭建34层的残差三维卷积神经网络,网络由若干基本模块组成,对于每个基本模块,假设输入信号为X,首先经过F(F表示该基本模块的三维卷积滤波器数目,每个基本模块的F不同)个3×3×3的三维卷积滤波器进行处理,然后接上批量标准化(BatchNorm)层以及线性整流函数(Rectified Linear Unit,ReLU)层进行归一化和激活操作,接着再使用F个3×3×3的三维卷积滤波器进行处理,输出的结果通过BatchNorm层归一化处理后,和基本模块的输入进行逐元素相加操作以实现残差连接,相加后的结果经过ReLU层激活后输出。在定义了基本模块的前提下,34层的残差三维卷积神经网络结构如下:首先对输入信号使用64个3×3×3的三维卷积滤波器进行卷积处理,然后经过3×3×3 的三维最大池化后输出信号;输出的信号送入第二个数据处理组块,该组块由3 个基本模块串联组成,滤波器数目F等于64;然后信号送入第三、四、五个数据处理组块,这些组块分别由4、6、3个基本模块串联组成,基本模块的滤波器数目分别为128、256、512;最后对第五个数据处理组块输出的特征图用自适应平均池化处理得到一串向量,然后接全连接(Fully connected layer,FC)层进行降维操作。
图4给出了结合动作特征与距离特征进行行人穿越意图识别的示意图。
4)、基于行人分块的穿越动作识别。
搭建的三维卷积神经网络可以用于动作识别,涉及到的行人穿越动作识别,需要根据先验经验对行人进行分块。考虑到行人的注视动作和腿部动作对于判断其是否有穿越意图至关重要,在此将行人分为上半身、下半身以及完整身体三个部分,分别提取这三个部分的连续图像序列,然后分别送入三维卷积神经网络进行处理,提取出与行人穿越意图相关的特征,过程可用如下公式表示:
fa=Φ(p,Wa)p∈{pup,pdown,pentire}
其中,fa表示三维卷积神经网络提取出的与行人穿越意图相关的动作特征,φ表示三维卷积神经网络,Wa表示三维神经网络的可学习参数,p表示选中的行人某个部分,pup、pdown、pentire分别表示行人的上半身、下半身以及完整身体三个部分。
5)、基于目标检测的交通场景上下文识别。
交通场景上下文识别指识别出当前场景的交通要素,包括交通灯、斑马线以及行人标志等。常用的识别交通场景上下文的方法包括目标检测和语义分割,考虑到实时性的需求,利用faster-RCNN目标检测算法检测感兴趣行人的局部交通场景内的交通要素。定义了交通场景权重wb表示感兴趣行人的局部交通场景内是否存在交通灯、斑马线以及行人标志等提示行人可能会穿越马路的要素,如果检测到这些要素,令wb为2,否则为1。
6)、基于上下文因素的人-车距离编码。
车辆与行人的距离很大程度上影响了行人是否会穿越马路的决策。一般来说:车辆距离行人越远,行人越倾向于穿越;车辆的速度越慢,行人越倾向于穿越;感兴趣行人的局部交通场景内有交通要素,行人越倾向于穿越。
针对人和车之间距离的计算,定义xdis和ydis分别表示人和车之间的横向和纵向距离。由于摄像头通常悬挂于车内,因此假设车辆处于底部中间的位置,根据检测到的感兴趣行人的中心位置cx和cy,xdis和ydis的计算如下:
xdis=abs(cx-W/2)/w
ydis=abs(cy-H)/h
其中,W和H分别表示图像的宽和高,w和h分别表示感兴趣行人的外接矩形框的宽和高,用来克服图像的透视畸变效应。
针对车速对行人穿越决策的影响,本发明定义了车速权重wv,根据车速的不同将wv分为5个级别,具体定义如下:
其中,fp表示所提取的距离特征,ψ表示采用的多层感知机,Wp表示多层感知机的可学习参数。
7)、融合动作识别与交通场景上下文因素的行人穿越马路意图识别。
通过搭建的三维卷积神经网络从行人的动作中提取出了与行人穿越意图相关的编码特征fa,通过综合考虑感兴趣行人周围局部交通场景的上下文要素及人-车距离以及车的行驶速度得到了上下文因素的人-车距离编码特征fp,进一步可以融合这两个编码特征,从而得到能够综合反映行人穿越意图的特征并据此判断行人是否会进行穿越。
采用直接拼接的方式融合fa与fp,并使用一个全连接层FC将融合后的特征映射成包含两个神经元的向量,最后通过softmax操作得到穿越意图(穿越/不穿越)的分类识别结果。使用交叉熵损失函数来优化整个框架,损失函数的定义如下:
LOSS=Lcross_entropy(F(fa,fp,Wf),Y)
其中,F表示所使用的全连接网络,Wf表示全连接网络的可学习参数,Y表示样本的真实标签。
本发明借鉴了卷积神经网络在通用动作识别上的成功,搭建了三维卷积神经网络来预测行人穿越前的早期动作,得到与行人穿越意图相关的动作特征;为了提高识别行人穿越意图的准确性,利用人-车距离作为辅助判断依据,并根据先验信息添加了交通场景要素和车辆速度要素对人-车距离进行加权修正,并将修正后的人-车距离进行编码后得到距离特征;最后综合考虑动作特征和距离特征,得到行人是否要穿越马路的结果。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。
Claims (5)
1.一种基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法,其特征是:具有以下步骤:
S1、基于运动目标检测的感兴趣目标搜索;
S2、基于三维卷积神经网络的穿越动作识别;
S3、基于上下文因素的距离编码模块;
S4、融合动作识别与上下文因素的行人穿越马路意图识别。
2.如权利要求1所述的基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法,其特征是:所述的步骤S1中,具体包括:
(1)、行人检测:首先对输入图像序列进行处理,提取其中的感兴趣行人,以减少算法处理非感兴趣行人的时间开销;
(2)、感兴趣目标搜索:在得到某段时间范围内所有行人的位置变化信息后,根据该信息确定感兴趣目标。
3.如权利要求1所述的基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法,其特征是:所述的步骤S2中,具体包括:
(1)、三维卷积神经网络的搭建:通过检测行人即将穿越马路的早期动作作为判断行人是否穿越马路的主要因素;
(2)、基于行人分块的穿越动作识别:将上述步骤搭建的三维卷积神经网络用于行人穿越动作识别,对行人进行分块。
4.如权利要求1所述的基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法,其特征是:所述的步骤S3中,具体包括:
(1)、基于目标检测的交通场景上下文识别:识别出当前场景的交通要素,包括交通灯、斑马线以及行人标志;
(2)、基于上下文因素的人-车距离编码:车辆与行人的距离很大程度上影响了行人是否会穿越马路的决策,车辆距离行人越远,行人越倾向于穿越;车辆的速度越慢,行人越倾向于穿越;感兴趣行人的局部交通场景内有交通要素,行人越倾向于穿越。
5.如权利要求1所述的基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法,其特征是:所述的步骤S4中,具体包括:
(1)、通过搭建三维卷积神经网络,从行人的动作中提取与行人穿越意图相关的编码特征fa,并根据感兴趣行人周围局部交通场景的上下文要素及人-车距离以及车的行驶速度,得到上下文因素的人-车距离编码特征fp,进一步融合这两个编码特征,从而得到能够综合反映行人穿越意图的特征并据此判断行人是否会进行穿越;
(2)、采用直接拼接的方式融合fa与fp,并使用一个全连接层FC将融合后的特征映射成包含两个神经元的向量,最后通过softmax操作得到穿越意图的分类识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011276593.6A CN112329682B (zh) | 2020-11-16 | 2020-11-16 | 一种基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011276593.6A CN112329682B (zh) | 2020-11-16 | 2020-11-16 | 一种基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112329682A true CN112329682A (zh) | 2021-02-05 |
CN112329682B CN112329682B (zh) | 2024-01-26 |
Family
ID=74318259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011276593.6A Active CN112329682B (zh) | 2020-11-16 | 2020-11-16 | 一种基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112329682B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113111824A (zh) * | 2021-04-22 | 2021-07-13 | 青岛图灵科技有限公司 | 一种基于视频分析的行人穿越马路实时识别方法 |
CN113361491A (zh) * | 2021-07-19 | 2021-09-07 | 厦门大学 | 一种无人驾驶汽车对行人的过街意图预测方法 |
CN113744524A (zh) * | 2021-08-16 | 2021-12-03 | 武汉理工大学 | 一种基于车辆间协同计算通信的行人意图预测方法及系统 |
CN114550297A (zh) * | 2022-02-25 | 2022-05-27 | 北京拙河科技有限公司 | 一种行人的意图分析方法及系统 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016219503A1 (de) * | 2016-10-07 | 2018-04-12 | Audi Ag | Verfahren und Fahrerassistenzsystem zur Erkennung der Intention eines Fußgängers zur Querung einer Ego-Fahrspur |
CN110427850A (zh) * | 2019-07-24 | 2019-11-08 | 中国科学院自动化研究所 | 驾驶员高速道路换道意图预测方法、系统、装置 |
CN110689724A (zh) * | 2018-12-31 | 2020-01-14 | 上海眼控科技股份有限公司 | 一种基于深度学习的机动车斑马线礼让行人自动审核方法 |
US20200023842A1 (en) * | 2019-09-27 | 2020-01-23 | David Gomez Gutierrez | Potential collision warning system based on road user intent prediction |
CN110806744A (zh) * | 2018-07-19 | 2020-02-18 | 通用汽车环球科技运作有限责任公司 | 使用分层选项马尔可夫决策过程的交叉路口自主驾驶决策 |
CN111459168A (zh) * | 2020-04-23 | 2020-07-28 | 上海交通大学 | 一种融合的自动驾驶汽车过街行人轨迹预测方法及系统 |
CN111626198A (zh) * | 2020-05-27 | 2020-09-04 | 多伦科技股份有限公司 | 自动驾驶场景下基于Body Pix的行人运动检测方法 |
US20200283016A1 (en) * | 2019-03-06 | 2020-09-10 | Robert Bosch Gmbh | Movement prediction of pedestrians useful for autonomous driving |
-
2020
- 2020-11-16 CN CN202011276593.6A patent/CN112329682B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016219503A1 (de) * | 2016-10-07 | 2018-04-12 | Audi Ag | Verfahren und Fahrerassistenzsystem zur Erkennung der Intention eines Fußgängers zur Querung einer Ego-Fahrspur |
CN110806744A (zh) * | 2018-07-19 | 2020-02-18 | 通用汽车环球科技运作有限责任公司 | 使用分层选项马尔可夫决策过程的交叉路口自主驾驶决策 |
CN110689724A (zh) * | 2018-12-31 | 2020-01-14 | 上海眼控科技股份有限公司 | 一种基于深度学习的机动车斑马线礼让行人自动审核方法 |
US20200283016A1 (en) * | 2019-03-06 | 2020-09-10 | Robert Bosch Gmbh | Movement prediction of pedestrians useful for autonomous driving |
CN110427850A (zh) * | 2019-07-24 | 2019-11-08 | 中国科学院自动化研究所 | 驾驶员高速道路换道意图预测方法、系统、装置 |
US20200023842A1 (en) * | 2019-09-27 | 2020-01-23 | David Gomez Gutierrez | Potential collision warning system based on road user intent prediction |
CN111459168A (zh) * | 2020-04-23 | 2020-07-28 | 上海交通大学 | 一种融合的自动驾驶汽车过街行人轨迹预测方法及系统 |
CN111626198A (zh) * | 2020-05-27 | 2020-09-04 | 多伦科技股份有限公司 | 自动驾驶场景下基于Body Pix的行人运动检测方法 |
Non-Patent Citations (2)
Title |
---|
曾令秋;马济森;韩庆文;叶蕾;: "一种城市道路场景下行人危险度评估方法", 湖南大学学报(自然科学版), no. 08 * |
段坚堤;龙科军;李磊;: "无信号控制路段过街横道处行人过街行为", 系统工程, no. 04 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113111824A (zh) * | 2021-04-22 | 2021-07-13 | 青岛图灵科技有限公司 | 一种基于视频分析的行人穿越马路实时识别方法 |
CN113361491A (zh) * | 2021-07-19 | 2021-09-07 | 厦门大学 | 一种无人驾驶汽车对行人的过街意图预测方法 |
CN113744524A (zh) * | 2021-08-16 | 2021-12-03 | 武汉理工大学 | 一种基于车辆间协同计算通信的行人意图预测方法及系统 |
CN114550297A (zh) * | 2022-02-25 | 2022-05-27 | 北京拙河科技有限公司 | 一种行人的意图分析方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN112329682B (zh) | 2024-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hasegawa et al. | Robust Japanese road sign detection and recognition in complex scenes using convolutional neural networks | |
CN112329682B (zh) | 一种基于穿越动作和交通场景上下文因素的行人穿越马路意图识别方法 | |
Alghmgham et al. | Autonomous traffic sign (ATSR) detection and recognition using deep CNN | |
Sirohi et al. | Convolutional neural networks for 5G-enabled intelligent transportation system: A systematic review | |
Razali et al. | Pedestrian intention prediction: A convolutional bottom-up multi-task approach | |
CN110263786B (zh) | 一种基于特征维度融合的道路多目标识别系统及方法 | |
CN110197152B (zh) | 一种用于自动驾驶系统的道路目标识别方法 | |
CN112329684B (zh) | 一种基于注视检测和交通场景识别的行人穿越马路意图识别方法 | |
CN110765906A (zh) | 一种基于关键点的行人检测算法 | |
KR20180048407A (ko) | 차선 검출 장치 및 방법 | |
CN108875754B (zh) | 一种基于多深度特征融合网络的车辆再识别方法 | |
CN112395951A (zh) | 一种面向复杂场景的域适应交通目标检测与识别方法 | |
US11790646B2 (en) | Network for interacted object localization | |
CN113574533A (zh) | 主客交互识别模型 | |
Muthalagu et al. | Vehicle lane markings segmentation and keypoint determination using deep convolutional neural networks | |
CN115273032A (zh) | 交通标志识别方法、装置、设备及介质 | |
KR20200071865A (ko) | 차원 축소에 기반한 영상 객체 인식 시스템 및 방법 | |
Hoang et al. | Optimizing YOLO performance for traffic light detection and end-to-end steering control for autonomous vehicles in Gazebo-ROS2 | |
Mishra et al. | An effective automatic traffic sign classification and recognition deep convolutional networks | |
Hasegawa et al. | Robust detection and recognition of japanese traffic sign in the complex scenes based on deep learning | |
Liu | Learning full-reference quality-guided discriminative gradient cues for lane detection based on neural networks | |
CN113361491A (zh) | 一种无人驾驶汽车对行人的过街意图预测方法 | |
CN115661712A (zh) | 一种轻量级多任务视频流实时推理方法及系统 | |
CN115294545A (zh) | 一种基于深度学习的复杂路面车道识别方法及芯片 | |
Sanjeewani et al. | A novel evolving classifier with a false alarm class for speed limit sign recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |