CN112270226B - 一种基于多特征提取和多注意力机制的行人轨迹预测方法 - Google Patents
一种基于多特征提取和多注意力机制的行人轨迹预测方法 Download PDFInfo
- Publication number
- CN112270226B CN112270226B CN202011108167.1A CN202011108167A CN112270226B CN 112270226 B CN112270226 B CN 112270226B CN 202011108167 A CN202011108167 A CN 202011108167A CN 112270226 B CN112270226 B CN 112270226B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- dynamic
- static
- pedestrians
- attention module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000000605 extraction Methods 0.000 title claims abstract description 18
- 230000007246 mechanism Effects 0.000 title claims abstract description 12
- 230000003068 static effect Effects 0.000 claims abstract description 36
- 230000007613 environmental effect Effects 0.000 claims description 19
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 10
- 239000013598 vector Substances 0.000 claims description 9
- 230000008447 perception Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims 1
- 238000013527 convolutional neural network Methods 0.000 description 9
- 238000011160 research Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- VHUKJKINNIUBPM-UHFFFAOYSA-N n-(2-phenoxyphenyl)formamide Chemical compound O=CNC1=CC=CC=C1OC1=CC=CC=C1 VHUKJKINNIUBPM-UHFFFAOYSA-N 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/16—Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Mathematics (AREA)
- Multimedia (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
本发明提供了一种基于多特征提取和多注意力机制的行人轨迹预测方法,首先,提取静态环境特征和动态环境特征,所述动态环境特征包括其他行人对目标的影响及非行人因素对目标的影响;其次,构建静态环境特征注意力模块和动态坏境特征注意力模块;最后,将注意力模块的输出送入长短时记忆网络实现行人轨迹预测。本发明相对于传统的行人轨迹预测方法有较高的精度,同时提高了轨迹预测的速度,在一定程度上改进了行人轨迹预测的性能。
Description
技术领域
本发明涉及一种行人轨迹预测方法,具体为一种基于多特征提取和多注意力机制的行人轨迹预测方法。
背景技术
行人轨迹预测已经成为了计算机视觉领域的热点研究课题之一,被广泛应用到智能视频目标跟踪、无人驾驶、机器人导航、人群行为分析等各种领域。国内外的研究人员已经取得了一些研究成果,对该领域的发展起到了十分重要的推动作用。但是,由于人类行为的复杂性,影响行人轨迹变化的因素较多,导致现有方法仍然存在一定程度的局限性,使得行人轨迹预测依旧是一个具有挑战性的研究课题。
近年来,行人轨迹预测方法取得了很大的进步,一些研究人员将深度学习网络应用到行人轨迹预测的过程当中,并且从多种角度来考虑影响行人运动的因素,克服早期方法中仅考虑某一方面影响因素的弱点。在一定程度上提高了行人轨迹预测的性能,但还存在一定的局限性,考虑的因素还可以更加全面。
为了克服现有方法存在的问题,提出一种基于多特征提取和多注意力机制的行人轨迹预测方法,在提取行人所在场景环境的静态深度特征的同时,也从目标周围的行人轨迹和非行人轨迹中提取动态深度特征,并且对静态深度特征和动态深度特征分配不同的注意力权重,最后,将注意力模块的输出送入LSTM网络中实现行人轨迹预测。
发明内容
发明目的:本发明提出一种基于多特征提取和多注意力机制的行人轨迹预测方法,具有较高的精度,同时提高了轨迹预测的速度,在一定程度上改进了行人轨迹预测的性能。
技术方案:本发明所述的一种基于多特征提取和多注意力机制的行人轨迹预测方法,包括以下步骤:
(1)提取静态环境特征和动态环境特征,所述动态环境特征包括其他行人对目标的影响及非行人因素对目标的影响;
(2)构建静态环境特征注意力模块和动态坏境特征注意力模块;
(3)将注意力模块的输出送入长短时记忆网络实现行人轨迹预测。
进一步地,步骤(1)所述的静态特征提取实现过程如下:
利用现有方法获得t时刻场景图像It的语义图It,semantic;采用CNN网络提取It,semantic的深度特征Ft,static:
Ft,static=CNN(It,semantic;WCNN) (1)
其中,WCNN是权重矩阵。
进一步地,步骤(1)所述的动态特征提取实现过程如下:
采用LSTM网络从场景中出现的所有行人的历史轨迹中提取动态环境特征
t时刻第i个行人他周围的行人动态环境特征可以定义为:
将观测的时间间隔[1:Tobs]中所有的场景中存在的非行人目标的轨迹进行池化,得到一个池化向量Pt i,送入到多层感知层MLP提取非行人目标的动态特征:
其中,WMLP为多层感知层的权重矩阵。
进一步地,所述步骤(2)实现过程如下:
静态环境特征注意力模块的输入为Ft,static,输出为注意力向量
Wt,static是静态环境特征注意力模块的权重矩阵:
动态环境特征注意力向量为:
Wt,dynamic表示动态环境特征注意力模块的权重矩阵,定义为:
Wdynamic=δ(γ(cos(Ψ))) (7)
其中,δ(·)是sigmoid激活函数,γ(·)是1×1卷积,cos(Ψ)表示其他行人或者非行人轨迹间的方位角.假设场景中行人和非行人的数量为M,表示第i个行人与第j个除他以外的动态轨迹之间的方位角,则cos(Ψ)为:
进一步地,所述步骤(3)实现过程如下:
给定t-1时刻LSTM网络的隐藏状态记忆单元/>可以通过LSTM网络计算
将注意力模块的输出,送入到LSTM网络,得到预测的轨迹为:
其中,为目标i在t时刻的位置,/>为预测位置,W表示LSTM网络的权重矩阵,/>表示LSTM网络输出层/>和隐藏状态/>之间的权重矩阵,bo是LSTM网络输出层的偏置项。
有益效果:与现有技术相比,本发明的有益效果:本发明相对于传统的行人轨迹预测方法有较高的精度,同时提高了轨迹预测的速度,在一定程度上改进了行人轨迹预测的性能。
附图说明
图1为本发明的流程图;
图2为静态环境特征提取示意图。
具体实施方式
下面结合附图对本发明作进一步详细说明。
假设场景中有N个行人,表示N个行人的轨迹,其中/>表示第i个行人在t时刻的位置,/>表示预测的N个行人未来的轨迹。行人轨迹预测问题是给定所有行人在观测的时间间隔[1:Tobs]内的轨迹,来预测他们在未来一段时间[Tobs+1,Tpred]内的轨迹。
本发明提供的一种基于多特征提取和多注意力机制的行人轨迹预测,包含三个主要部分:多特征提取模块,多注意力机制模块和LSTM网络。多特征提取模块提取三种特征:从行人所在的场景中提取静态环境特征,从行人的历史运动轨迹中提取动态环境特征,同时,提取当前时刻的特征。与之相应的设计三种注意力机制模块:静态环境特征注意力模块、动态坏境特征注意力模块和不同时刻特征的注意力模块。如图1所示,具体包括以下步骤:
步骤1:提取静态环境特征和动态环境特征,其中,动态环境特征不仅考虑了其他行人对目标的影响,还考虑了非行人因素对目标的影响。
行人的运动轨迹会被场景中的静态特征(道路、建筑物、人行横道、出入口、草地等等)所影响,本文定义的语义标签C={road,building,grass,bench,sidewalk,obstacle,car,crossroads}。提取静态环境特征的过程如图2所示:
首先,利用现有方法获得t时刻场景图像It的语义图It,semantic。然后,采用CNN(Convolutional Neural Network)网络提取It,semantic的深度特征Ft,static:
Ft,static=CNN(It,semantic;WCNN) (1)
式中,WCNN是权重矩阵。
除了静态环境以外,动态环境对行人的运动轨迹同样会产生影响。本文所述的动态环境主要考虑两部分:行人之间的相互影响和场景中存在的其他动态因素对行人的影响。采用LSTM网络从场景中出现的所有行人的历史轨迹中提取动态环境特征行人之间的动态环境特征可以反映这些行人的运动规律,对于未来轨迹的预测可以起到重要的作用。
t时刻第i个行人他周围的行人动态环境特征可以定义为:
除了行人之外,环境中存在的行驶的车辆、运动的小动物等因素的变化也同样会影响行人的运动轨迹,将[1:Tobs]中所有的场景中存在的非行人目标的轨迹进行池化,得到一个池化向量Pt i,送入到多层感知层MLP(Multi-Layer Perceptron)来提取非行人目标的动态特征:
式中WMLP为多层感知层的权重矩阵。
步骤2:构建静态环境特征注意力模块和动态坏境特征注意力模块。
本发明采用软注意力机制,静态环境特征注意力模块的输入为Ft,static,输出为注意力向量
Wt,static是静态环境特征注意力模块的权重矩阵:
动态环境特征注意力向量为:
Wt,dynamic表示动态环境特征注意力模块的权重矩阵,定义为:
Wdynamic=δ(γ(cos(Ψ))) (7)
式中δ(·)是sigmoid激活函数,γ(·)是1×1卷积,cos(Ψ)表示其他行人或者非行人轨迹间的方位角.假设场景中行人和非行人的数量为M,表示第i个行人与第j个除他以外的动态轨迹之间的方位角,则cos(Ψ)为:
步骤3:将注意力模块的输出送入长短时记忆网络实现行人轨迹预测。
目标i在t时刻的位置用表示,预测位置用/>表示。
给定t-1时刻LSTM网络的隐藏状态记忆单元/>可以通过LSTM网络计算
式中,W表示LSTM网络的权重矩阵,表示LSTM网络输出层/>和隐藏状态/>之间的权重矩阵,bo是LSTM网络输出层的偏置项。
本发明选取LSTM网络进行轨迹预测,将注意力模块的输出,送入到LSTM网络,可以得到预测的轨迹为:
本发明的实现基于Ubuntu 18.04LTS操作系统,GPU选用NVIDIA GTX1080TI,采用PyTorch深度学习框架。为了更好的测试本文提出的MFMA-LSTM行人轨迹预测方法的性能,选用了两个在基线算法中普遍采用的国际公开数据集:ETH and UCY。这两个数据集包含了五个行人场景:ETH-UNIV,ETH-HOTEL,UCY-UNIV,UCY-ZARA1和UCY-ZARA2,场景中共有1536个不同运动模式的行人,视频帧速率为25fps.
选用三种具有代表性的基线算法进行性能对比,分别为:Social-LSTM,Social-GAN和STGAT,这三种基线方法与本文提出的算法具有一定程度相关性的。
与三种基线算法类似,评价指标选用平均偏移误差ADE(Average DisplacementError)和最终偏移误差FDE(Final Displacement Error)。其中,ADE表示一个时间步长内预测位置和实际位置之间的平均欧氏距离:
FDE表示预测位置和实际位置在预测最终时刻的欧式距离:
表1和表2统计了观测序列长度Tobs=8帧,预测序列长度分别为Tpred=8帧和Tpred=12帧的ADE、FDE以及它们的平均值。
表1不同轨迹预测算法ADE对比结果
表2不同轨迹预测算法FDE对比结果
从表1和表2可以看出,本发明相对于传统的行人轨迹预测方法有较高的精度,改进了行人轨迹预测的性能。
Claims (1)
1.一种基于多特征提取和多注意力机制的行人轨迹预测方法,其特征在于,包括以下步骤:
(1)提取静态环境特征和动态环境特征,所述动态环境特征包括其他行人对目标的影响及非行人因素对目标的影响;
(2)构建静态环境特征注意力模块和动态坏境特征注意力模块;
(3)将注意力模块的输出送入长短时记忆网络实现行人轨迹预测;
步骤(1)所述的静态环境特征提取实现过程如下:
利用现有方法获得t时刻场景图像It的语义图It,semantic;采用CNN网络提取It,semantic的深度特征Ft,static:
Ft,static=CNN(It,semantic;WCNN) (1)
其中,WCNN是权重矩阵;
步骤(1)所述的动态环境特征提取实现过程如下:
动态环境特征包括行人动态环境特征/>和非行人目标的动态特征采用LSTM网络从场景中出现的所有行人的历史轨迹中提取动态环境特征:
其中,和/>分别是t时刻LSTM网络的隐藏状态和记忆单元;t时刻第i个行人他周围的行人动态环境特征定义为:
将观测的时间间隔[1:Tobs]中所有的场景中存在的非行人目标的轨迹进行池化,得到一个池化向量送入到多层感知层MLP提取非行人目标的动态特征:
其中,WMLP为多层感知层的权重矩阵;
所述步骤(2)实现过程如下:
静态环境特征注意力模块的输入为Ft,static,输出为注意力向量
Wt,static是静态环境特征注意力模块的权重矩阵:
动态环境特征注意力向量为:
Wt,dynamic表示动态环境特征注意力模块的权重矩阵,定义为:
Wdynamic=δ(γ(cos(Ψ))) (7)
其中,δ(·)是sigmoid激活函数,γ(·)是1×1卷积,cos(Ψ)表示其他行人或者非行人轨迹间的方位角.假设场景中行人和非行人的数量为M,表示第i个行人与第j个除他以外的动态轨迹之间的方位角,则cos(Ψ)为:
所述步骤(3)实现过程如下:
给定(t-1)时刻LSTM网络的隐藏状态记忆单元/>通过LSTM网络计算/>
将注意力模块的输出,送入到LSTM网络,得到预测的轨迹为:
其中,为目标i在t时刻的位置,/>为预测位置,W表示LSTM网络的权重矩阵,/>表示LSTM网络输出层/>和隐藏状态/>之间的权重矩阵,bo是LSTM网络输出层的偏置项。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011108167.1A CN112270226B (zh) | 2020-10-16 | 2020-10-16 | 一种基于多特征提取和多注意力机制的行人轨迹预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011108167.1A CN112270226B (zh) | 2020-10-16 | 2020-10-16 | 一种基于多特征提取和多注意力机制的行人轨迹预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112270226A CN112270226A (zh) | 2021-01-26 |
CN112270226B true CN112270226B (zh) | 2024-04-02 |
Family
ID=74337239
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011108167.1A Active CN112270226B (zh) | 2020-10-16 | 2020-10-16 | 一种基于多特征提取和多注意力机制的行人轨迹预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112270226B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113160269B (zh) * | 2021-02-09 | 2024-03-12 | 北京工业大学 | 一种基于注意力机制的行人轨迹预测方法 |
CN113096161A (zh) * | 2021-03-31 | 2021-07-09 | 哈尔滨工业大学(深圳) | 一种密集行人环境下强化学习移动机器人的导航方法及装置 |
CN113744524B (zh) * | 2021-08-16 | 2023-04-18 | 武汉理工大学 | 一种基于车辆间协同计算通信的行人意图预测方法及系统 |
CN113836339B (zh) * | 2021-09-01 | 2023-09-26 | 淮阴工学院 | 一种基于全局信息和位置嵌入的场景图生成方法 |
CN114297529B (zh) * | 2021-12-28 | 2024-08-13 | 东北大学 | 一种基于空间注意力网络的移动集群轨迹预测方法 |
CN114387313A (zh) * | 2022-01-07 | 2022-04-22 | 武汉东信同邦信息技术有限公司 | 一种运动轨迹预测方法、装置、设备及存储介质 |
CN116654022B (zh) * | 2023-07-25 | 2023-10-20 | 清华大学 | 基于多重交互的行人轨迹预测方法、系统、设备和介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108898612A (zh) * | 2018-06-11 | 2018-11-27 | 淮阴工学院 | 基于多智能体深度增强学习的多目标跟踪方法 |
CN110163439A (zh) * | 2019-05-24 | 2019-08-23 | 长安大学 | 一种基于注意力机制的城市规模出租车轨迹预测方法 |
CN110378259A (zh) * | 2019-07-05 | 2019-10-25 | 桂林电子科技大学 | 一种面向监控视频的多目标行为识别方法及系统 |
CN111161322A (zh) * | 2019-12-31 | 2020-05-15 | 大连理工大学 | 一种基于人车交互的lstm神经网络行人轨迹预测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11361557B2 (en) * | 2019-01-18 | 2022-06-14 | Toyota Research Institute, Inc. | Attention-based recurrent convolutional network for vehicle taillight recognition |
EP3706034A1 (en) * | 2019-03-06 | 2020-09-09 | Robert Bosch GmbH | Movement prediction of pedestrians useful for autonomous driving |
-
2020
- 2020-10-16 CN CN202011108167.1A patent/CN112270226B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108898612A (zh) * | 2018-06-11 | 2018-11-27 | 淮阴工学院 | 基于多智能体深度增强学习的多目标跟踪方法 |
CN110163439A (zh) * | 2019-05-24 | 2019-08-23 | 长安大学 | 一种基于注意力机制的城市规模出租车轨迹预测方法 |
CN110378259A (zh) * | 2019-07-05 | 2019-10-25 | 桂林电子科技大学 | 一种面向监控视频的多目标行为识别方法及系统 |
CN111161322A (zh) * | 2019-12-31 | 2020-05-15 | 大连理工大学 | 一种基于人车交互的lstm神经网络行人轨迹预测方法 |
Non-Patent Citations (5)
Title |
---|
"Location-Velocity Attention for Pedestrian Trajectory Prediction";H. Xue等;《2019 IEEE Winter Conference on Applications of Computer Vision (WACV)》;20190307;第2038-2047页 * |
"SS-LSTM: A Hierarchical LSTM Model for Pedestrian Trajectory Prediction";H. Xue等;《2018 IEEE Winter Conference on Applications of Computer Vision (WACV)》;20180507;第1186-1194页 * |
"复杂场景下行人轨迹预测方法";张睿等;《计算机工程与应用》;20200819;第1-9页 * |
"基于LSTM及注意力机制的行人轨迹预测模型";刘一雄;《中国学位论文全文数据库》;20181218;第1-53页 * |
"基于视觉跟踪的行人运动轨迹预测方法研究";陈镜任;《中国优秀硕士学位论文全文数据库信息科技辑》;20200715;I138-956 * |
Also Published As
Publication number | Publication date |
---|---|
CN112270226A (zh) | 2021-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112270226B (zh) | 一种基于多特征提取和多注意力机制的行人轨迹预测方法 | |
CN109344725B (zh) | 一种基于时空关注度机制的多行人在线跟踪方法 | |
JP6625220B2 (ja) | シーン内のオブジェクトのアクションを検出する方法及びシステム | |
CN105069434B (zh) | 一种视频中人体动作行为识别方法 | |
CN114372116A (zh) | 一种基于lstm和时空注意力机制的车辆轨迹预测方法 | |
CN111176309B (zh) | 一种基于球面成像的多无人机自组群互感理解方法 | |
CN111368755A (zh) | 一种基于视觉的四足机器人行人自主跟随方法 | |
Li et al. | Detection of typical obstacles in orchards based on deep convolutional neural network | |
CN109993770B (zh) | 一种自适应时空学习与状态识别的目标跟踪方法 | |
CN114155270A (zh) | 行人轨迹预测方法、装置、设备及存储介质 | |
CN111402632B (zh) | 一种交叉口行人运动轨迹的风险预测方法 | |
CN106296743A (zh) | 一种自适应运动目标跟踪方法及无人机跟踪系统 | |
Liu et al. | Motion robust high-speed light-weighted object detection with event camera | |
CN114708435A (zh) | 基于语义分割的障碍物尺寸预测与不确定性分析方法 | |
CN111626198A (zh) | 自动驾驶场景下基于Body Pix的行人运动检测方法 | |
Liu et al. | Data augmentation technology driven by image style transfer in self-driving car based on end-to-end learning | |
CN110084834B (zh) | 一种基于快速张量奇异值分解特征降维的目标跟踪方法 | |
CN113971688B (zh) | 一种增强id重识别的无锚多目标跟踪方法 | |
CN116380110B (zh) | 一种基于大数据无人驾驶车辆实时路径规划方法 | |
CN106485283B (zh) | 一种基于Online Boosting的粒子滤波行人目标跟踪方法 | |
Tian et al. | An efficient multi-task convolutional neural network for dairy farm object detection and segmentation | |
CN113781521B (zh) | 一种基于改进YOLO-DeepSort的仿生机器鱼检测跟踪方法 | |
Wang et al. | Research on improved pedestrian detection algorithm based on convolutional neural network | |
Zhou et al. | Application of neural network and computer in intelligent robot | |
Wu et al. | A Novel Gesture Recognition Model Under Sports Scenarios Based on Kalman Filtering and YOLOv5 Algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |