CN110488811A - 一种基于社交网络模型的机器人对行人轨迹预测的方法 - Google Patents
一种基于社交网络模型的机器人对行人轨迹预测的方法 Download PDFInfo
- Publication number
- CN110488811A CN110488811A CN201910662294.7A CN201910662294A CN110488811A CN 110488811 A CN110488811 A CN 110488811A CN 201910662294 A CN201910662294 A CN 201910662294A CN 110488811 A CN110488811 A CN 110488811A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- target
- module
- model
- pedestrian target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000001514 detection method Methods 0.000 claims abstract description 117
- 238000013135 deep learning Methods 0.000 claims description 20
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000007689 inspection Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 4
- 230000004888 barrier function Effects 0.000 abstract description 7
- 230000000694 effects Effects 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000007812 deficiency Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Psychiatry (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种基于社交网络模型的机器人对行人轨迹预测的方法,包括以下步骤:步骤一:构建行人目标检测模型;步骤二:构建行人目标跟踪模型;步骤三:生成行人目标实时运动轨迹;步骤四:构建社交网络轨迹预测模型;步骤五:规划机器人合理的运动路径。本发明针对现有技术中机器人无法提前对行人运动轨迹进行预测而导致机器人路径规划精确度低,对移动到的障碍物避让效果差,工作效率低等技术问题进行改进,本发明具有提高机器人对行人轨迹预测的精确度、合理避让障碍物、提高机器人的工作效率等优点。
Description
技术领域
本发明涉及行人轨迹预测技术领域,尤其涉及一种基于社交网络模型的机器人对行人轨迹预测的方法。
背景技术
随着机器人技术的发展和机器人的普及,现代机器人将与人共处同一工作或生活空间。人类是智慧体,在运动的过程中,人类会精准避开障碍物,选择最优的行走路线,因此现代机器人也需要具备合理规划路径的能力,这样可以更好的融入人类的生活空间,提高人类对于机器人的好感度。
现有技术中,机器人对移动的障碍物的避让效果差,因此,机器人不能精准的到达指定地点,机器人的产生是为了代替人类进行一些难度大的工作,机器人不能精准的到达指定地点时会降低机器人的工作效率,同时,机器人无法提前对行人运动轨迹进行预测而导致机器人路径规划精确度低,在机器人移动的过程中会与行人等障碍物发生不必要的碰撞。
针对以上技术问题,本发明公开了一种基于社交网络模型的机器人对行人轨迹预测的方法,本发明具有提高机器人对行人轨迹预测的精确度、合理避让障碍物、提高机器人的工作效率等优点。
发明内容
本发明的目的在于克服现有技术的不足,提供了一种基于社交网络模型的机器人对行人轨迹预测的方法,以解决现有技术中机器人无法提前对行人运动轨迹进行预测而导致机器人路径规划精确度低,对移动到的障碍物避让效果差,工作效率低等技术问题,本发明具有提高机器人对行人轨迹预测的精确度、合理避让障碍物、提高机器人的工作效率等优点。
本发明通过以下技术方案实现:本发明公开了一种基于社交网络模型的机器人对行人轨迹预测的方法,包括以下步骤:
步骤一:构建行人目标检测模型,目标检测模块通过机器人搭载的传感器采集到的数据进行行人目标检测,获取行人目标的位置,构建行人目标检测模型;
步骤二:构建行人目标跟踪模型,目标跟踪模块实时对行人目标检测模型检测到的行人目标进行实时跟踪和位置更新并输出行人目标的实时位置,构建行人目标跟踪模型;
步骤三:生成行人目标实时运动轨迹,轨迹生成模块根据目标跟踪模型输出的行人目标的实时位置和行人目标的速度和方向的预测值在机器人移动的检测区域内生成行人目标实时运动轨迹;
步骤四:构建社交网络轨迹预测模型,轨迹预测模块获取行人目标实时运动轨迹并输入到第一深度学习网络模型中,通过第一深度学习网络模型学习行人目标在运动时相互影响的规律,输出轨迹预测模块预测出的行人目标下一刻的运动轨迹,构建社交网络轨迹预测模型;
步骤五:规划机器人合理的运动路径,机器人中的路径规划模块根据行人目标跟踪模型检测到的行人目标的实时位置和社交网络轨迹预测模型预测出的行人目标下一刻的运动轨迹规划出机器人合理的运动路径。
进一步的,为了让行人目标检测模型对行人目标进行更好的检测,步骤一中,传感器为视觉传感器、激光传感器、超声波传感器和红外传感器四者中的一种或者多种。其中,视觉传感器的摄像头中的感光元件选用索尼品牌下的IMX291型号,镜头选用视场角约90度的广角镜头,激光传感器搭载SICK的2D或3D激光雷达,索尼品牌下IMX291型号的感光元件在暗光下的成像效果更好,提高行人目标检测模型检测的效果。
进一步的,为了精确构建行人目标检测模型,步骤一中,获取行人目标位置具体包括如下步骤:
首先,目标检测模块获取行人目标与目标检测模块之间的距离和行人目标的腿部与目标检测模块之间的距离两者中的一种或者两种;
然后,目标检测模块根据行人目标与目标检测模块之间的距离和行人目标的腿部与目标检测模块之间的距离两者中的一种或两种结合进行估算获得行人目标的位置,构建行人目标检测模型,当通过行人目标与目标检测模块之间的距离和行人目标的腿部与目标检测模块之间的距离结合进行估算得到行人目标的位置时更加准确,具体步骤为,目标检测模块根据行人目标与目标检测模块之间的距离计算得到行人目标的坐标,通过行人目标腿部与目标检测模块之间的距离计算得到行人腿部的坐标,并将两个坐标汇统到同一坐标系中进行校准,获取行人目标的准确位置。
进一步的,为了准确获取行人目标与目标检测模块之间的距离,目标检测模块获取行人目标与目标检测模块之间的距离具体包括如下步骤:
首先,目标检测模块获取视觉传感器采集到的行人目标的图像数据和身高数据;
然后,目标检测模块利用第二深度学习网络模型检测出图像数据中的行人目标;
最后,目标检测模块结合检测到的行人目标和身高数据估算行人目标与目标检测模块之间的距离。
进一步的,为了准确获取行人目标的腿部与目标检测模块之间的距离,目标检测模块获取行人目标的腿部与目标检测模块之间的距离具体包括如下步骤:
首先,目标检测模块获取激光传感器射到行人目标腿部返回的激光、超声波传感器射到行人目标腿部返回的超声波和红外传感器射到行人目标腿部返回的红外线三者中的一种或者多种,并且转换成二值图像;
然后,目标检测模块结合机器人移动目标区域的中心坐标与获取的二值图像估算行人目标腿部与目标检测模块之间的距离。
进一步的,为了提高行人目标检测模型的检测效果,第二深度学习网络模型为YOLO网络模型和SSD网络模型两者中的一种或多种。
进一步的,为了更好的构建准确的行人目标跟踪模型,步骤一中,构建行人目标跟踪模型具体包括如下步骤:
首先,目标跟踪模块同步传感器的时间戳;
然后,目标跟踪模块计算相邻信号的特征距离并进行卡尔曼滤波,特征距离包括时间戳距离、图像灰度直方图距离、图像估算位置距离、激光雷达估算位置距离和检测框面积交并比距离;
最后,目标跟踪模块将时间戳与特征距离进行逐一匹配,进行行人目标的实时跟踪和位置更新,同时输出行人目标的速度和方向的预测值,构建行人目标跟踪模型。
进一步的,为了提高社交网络模型预测出的行人轨迹的准确性,第一深度学习网络模型为LSTM网络模型、RNN网络模型或者ResNet网络模型。
本发明具有以下优点:本发明通过行人检测跟踪和基于社交网络模型的轨迹预测技术,首先构建行人目标检测模型,通过行人目标检测模型检测到的行人目标进行实时跟踪,生成行人目标的实时运动轨迹,再结合社交网络轨迹预测模型预测出的行人目标下一刻的运动轨迹,进行合理的路径规划,精准对行人的轨迹进行预测,很好的解决了机器人在行走过程中与周围行人间的礼让和效率问题,做到了机器人与人在同一工作和生活空间中和谐相处,对机器人未来进入人类社会的普及具有实质性的意义。
附图说明
图1为本发明基于社交网络模型的机器人对行人轨迹预测的方法流程图;
图2为实施例2中获取行人目标的位置具体步骤示意图。
具体实施方式
下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例1
实施例1公开了一种基于社交网络模型的机器人对行人轨迹预测的方法,包括以下步骤:
步骤101:构建行人目标检测模型,目标检测模块通过机器人搭载的传感器采集到的数据进行行人目标检测,获取行人目标的位置,构建行人目标检测模型,传感器为视觉传感器,获取行人目标的位置具体包括如下步骤:
首先,目标检测模块获取行人目标与目标检测模块之间的距离;
然后,目标检测模块根据行人目标与目标检测模块之间的距离估算得到行人目标的位置,构建行人目标检测模型;
其中,目标检测模块获取行人目标与目标检测模块之间的距离具体包括如下步骤:
首先,目标检测模块获取视觉传感器采集到的行人目标的图像数据和身高数据;
然后,目标检测模块利用第二深度学习网络模型检测出图像数据中的行人目标,其中,第二深度学习网络模型为YOLO网络模型;
最后,目标检测模块结合检测到的行人目标和身高数据估算行人目标与目标检测模块之间的距离;
步骤102:构建行人目标跟踪模型,目标跟踪模块实时对行人目标检测模型检测到的行人目标的进行实时跟踪和位置更新并输出行人目标的实时位置,构建行人目标跟踪模型,构建行人目标跟踪模型具体包括如下步骤:
首先,目标跟踪模块同步传感器的时间戳;
然后,目标跟踪模块计算相邻信号的特征距离,并进行卡尔曼滤波,特征距离包括时间戳距离、图像灰度直方图距离、图像估算位置距离和检测框面积交并比距离;
最后,目标跟踪模块将时间戳与特征距离进行逐一匹配,进行行人目标的实时跟踪和位置更新,同时输出行人目标的速度和方向的预测值;
步骤103:生成行人目标实时运动轨迹,轨迹生成模块根据目标跟踪模型输出的行人目标的实时位置和行人目标的速度和方向的预测值在机器人移动的检测区域内生成行人目标实时运动轨迹;
步骤104:构建社交网络轨迹预测模型,轨迹预测模块获取行人目标实时运动轨迹并输入到第一深度学习网络模型中,通过第一深度学习网络模型学习行人目标在运动时相互影响的规律,输出轨迹预测模块预测出的行人目标下一刻的运动轨迹,构建社交网络轨迹预测模型,其中,第一深度学习网络模型为LSTM网络模型;
步骤105:规划机器人合理的运动路径,机器人中的路径规划模块根据行人目标跟踪模型检测到的行人目标的实时位置和社交网络轨迹预测模型预测出的行人目标下一刻的运动轨迹规划出机器人合理的运动路径。
本发明通过行人检测跟踪和基于社交网络模型的轨迹预测技术,首先构建行人目标检测模型,通过行人目标检测模型检测到的行人目标进行实时跟踪,生成行人目标的实时运动轨迹,再结合社交网络轨迹预测模型预测出的行人目标下一刻的运动轨迹,进行合理的路径规划,精准对行人的轨迹进行预测,很好的解决了机器人在行走过程中与周围行人间的礼让和效率问题,做到了机器人与人在同一工作和生活空间中和谐相处,对机器人未来进入人类社会的普及具有实质性的意义。
实施例2
实施例2公开了一种基于社交网络模型的机器人对行人轨迹预测的方法,如图1所示,包括以下步骤:
步骤101:构建行人目标检测模型,目标检测模块通过机器人搭载的传感器采集到的数据进行行人目标检测,构建行人目标检测模型,传感器为视觉传感器和激光传感器;
步骤102:构建行人目标跟踪模型,目标跟踪模块实时对行人目标检测模型检测到的行人目标的进行实时跟踪和位置更新并输出行人目标的实时位置,构建行人目标跟踪模型,构建行人目标跟踪模型具体包括如下步骤:
首先,目标跟踪模块同步传感器的时间戳;
然后,目标跟踪模块计算相邻信号的特征距离,并进行卡尔曼滤波,特征距离包括时间戳距离、图像灰度直方图距离、图像估算位置距离、激光雷达估算位置距离和检测框面积交并比距离;
最后,目标跟踪模块将时间戳与特征距离进行逐一匹配,进行行人目标的实时跟踪和位置更新,同时输出行人目标的速度和方向的预测值;
步骤103:生成行人目标实时运动轨迹,轨迹生成模块根据目标跟踪模型输出的行人目标的实时位置和行人目标的速度和方向的预测值在机器人移动的检测区域内生成行人目标实时运动轨迹;
步骤104:构建社交网络轨迹预测模型,轨迹预测模块获取行人目标实时运动轨迹并输入到第一深度学习网络模型中,通过第一深度学习网络模型学习行人目标在运动时相互影响的规律,输出轨迹预测模块预测出的行人目标下一刻的运动轨迹,构建社交网络轨迹预测模型,其中,第一深度学习网络模型为ResNet网络模型;
步骤105:规划机器人合理的运动路径,机器人中的路径规划模块根据行人目标跟踪模型检测到的行人目标的实时位置和社交网络轨迹预测模型预测出的行人目标下一刻的运动轨迹规划出机器人合理的运动路径。
如图2所示,获取行人目标位置具体包括如下步骤:
首先,目标检测模块获取行人目标与目标检测模块之间的距离和行人目标的腿部与目标检测模块之间的距离;
然后,目标检测模块根据行人目标与目标检测模块之间的距离和行人目标的腿部与目标检测模块之间的距离估算得到行人目标的位置信息,构建行人目标检测模型,具体为目标检测模块分别根据行人目标和目标检测模块之间的距离和行人目标的腿部与目标检测模块之间的距离获取行人目标的坐标和行人目标腿部的坐标,并将两个坐标汇统到同一坐标系中进行数据联合,准确获取行人目标的位置,通过视觉传感器和激光传感器同时进行检测,可以使获取的行人目标的位置更加准确;
其中,目标检测模块获取行人目标与目标检测模块之间的距离具体包括如下步骤:
首先,目标检测模块获取视觉传感器采集到的行人目标的图像数据和身高数据;
然后,目标检测模块利用第二深度学习网络模型检测出图像数据中的行人目标,其中,第二深度学习网络模型为SSD网络模型;
最后,目标检测模块结合检测到的行人目标和身高数据估算行人目标与目标检测模块之间的距离;
目标检测模块获取行人目标的腿部与目标检测模块之间的距离具体包括如下步骤:
首先,目标检测模块获取激光传感器射到行人目标腿部返回的激光、超声波传感器射到行人目标腿部返回的超声波和红外传感器射到行人目标腿部返回的红外线三者中的一种或者多种,并且转换成二值图像;
然后,目标检测模块结合机器人移动目标区域的中心坐标与获取的二值图像估算行人目标腿部与目标检测模块之间的距离。
本发明通过行人检测跟踪和基于社交网络模型的轨迹预测技术,首先构建行人目标检测模型,通过行人目标检测模型检测到的行人目标进行实时跟踪,生成行人目标的实时运动轨迹,再结合社交网络轨迹预测模型预测出的行人目标下一刻的运动轨迹,进行合理的路径规划,精准对行人的轨迹进行预测,很好的解决了机器人在行走过程中与周围行人间的礼让和效率问题,做到了机器人与人在同一工作和生活空间中和谐相处,对机器人未来进入人类社会的普及具有实质性的意义。
Claims (8)
1.一种基于社交网络模型的机器人对行人轨迹预测的方法,其特征在于,包括以下步骤:
步骤一:构建行人目标检测模型,目标检测模块通过机器人搭载的传感器采集到的数据进行行人目标检测,获取行人目标的位置,构建所述行人目标检测模型;
步骤二:构建行人目标跟踪模型,目标跟踪模块实时对所述行人目标检测模型检测到的行人目标进行实时跟踪和位置更新并输出所述行人目标的实时位置,构建所述行人目标跟踪模型;
步骤三:生成行人目标实时运动轨迹,轨迹生成模块根据所述目标跟踪模型输出的所述行人目标的实时位置和所述行人目标的速度和方向的预测值在机器人移动的检测区域内生成所述行人目标实时运动轨迹;
步骤四:构建社交网络轨迹预测模型,轨迹预测模块获取所述行人目标实时运动轨迹并输入到第一深度学习网络模型中,通过所述第一深度学习网络模型学习所述行人目标在运动时相互影响的规律,输出所述轨迹预测模块预测出的所述行人目标下一刻的运动轨迹,构建社交网络轨迹预测模型;
步骤五:规划机器人合理的运动路径,机器人中的路径规划模块根据所述行人目标跟踪模型检测到的所述行人目标的实时位置和所述社交网络轨迹预测模型预测出的所述行人目标下一刻的运动轨迹规划出机器人合理的运动路径。
2.如权利要求1所述的基于社交网络模型的机器人对行人轨迹预测的方法,其特征在于,步骤一中,所述传感器为视觉传感器、激光传感器、超声波传感器和红外传感器四者中的一种或者多种。
3.如权利要求2所述的基于社交网络模型的机器人对行人轨迹预测的方法,其特征在于,步骤一中,所述获取行人目标位置具体包括如下步骤:
首先,所述目标检测模块获取行人目标与所述目标检测模块之间的距离和行人目标的腿部与所述目标检测模块之间的距离两者中的一种或者两种;
然后,所述目标检测模块根据行人目标与所述目标检测模块之间的距离和行人目标的腿部与所述目标检测模块之间的距离两者中的一种或两种结合进行估算获得行人目标的位置,构建所述行人目标检测模型。
4.如权利要求3所述的基于社交网络模型的机器人对行人轨迹预测的方法,其特征在于,所述目标检测模块获取行人目标与所述目标检测模块之间的距离具体包括如下步骤:
首先,所述目标检测模块获取所述视觉传感器采集到的行人目标的图像数据和身高数据;
然后,所述目标检测模块利用第二深度学习网络模型检测出所述图像数据中的行人目标;
最后,所述目标检测模块结合检测到的行人目标和所述身高数据估算行人目标与所述目标检测模块之间的距离。
5.如权利要求3所述的基于社交网络模型的机器人对行人轨迹预测的方法,其特征在于,所述目标检测模块获取行人目标的腿部与所述目标检测模块之间的距离具体包括如下步骤:
首先,所述目标检测模块获取所述激光传感器射到行人目标腿部返回的激光、所述超声波传感器射到行人目标腿部返回的超声波和所述红外传感器射到行人目标腿部返回的红外线三者中的一种或者多种,并且转换成二值图像;
然后,所述目标检测模块结合机器人移动目标区域的中心坐标与获取的所述二值图像估算行人目标腿部与所述目标检测模块之间的距离。
6.如权利要求4所述的基于社交网络模型的机器人对行人轨迹预测的方法,其特征在于,所述第二深度学习网络模型为YOLO网络模型和SSD网络模型两者中的一种或多种。
7.如权利要求1所述的基于社交网络模型的机器人对行人轨迹预测的方法,其特征在于,步骤一中,所述构建行人目标跟踪模型具体包括如下步骤:
首先,所述目标跟踪模块同步所述传感器的时间戳;
然后,所述目标跟踪模块计算相邻信号的特征距离并进行卡尔曼滤波;
最后,所述目标跟踪模块将所述时间戳与所述特征距离进行逐一匹配,进行行人目标的实时跟踪和位置更新,同时输出行人目标的速度和方向的预测值,构建行人目标跟踪模型。
8.如权利要求1所述的基于社交网络模型的机器人对行人轨迹预测的方法,其特征在于,步骤四中,所述第一深度学习网络模型为LSTM网络模型、RNN网络模型或者ResNet网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910662294.7A CN110488811B (zh) | 2019-07-22 | 2019-07-22 | 一种基于社交网络模型的机器人对行人轨迹预测的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910662294.7A CN110488811B (zh) | 2019-07-22 | 2019-07-22 | 一种基于社交网络模型的机器人对行人轨迹预测的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110488811A true CN110488811A (zh) | 2019-11-22 |
CN110488811B CN110488811B (zh) | 2023-04-07 |
Family
ID=68547869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910662294.7A Active CN110488811B (zh) | 2019-07-22 | 2019-07-22 | 一种基于社交网络模型的机器人对行人轨迹预测的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110488811B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111044045A (zh) * | 2019-12-09 | 2020-04-21 | 中国科学院深圳先进技术研究院 | 基于神经网络的导航方法、装置及终端设备 |
CN112685614A (zh) * | 2021-03-17 | 2021-04-20 | 中国电子科技集团公司第三十研究所 | 一种社交媒体机器人群体快速检测方法 |
CN113257008A (zh) * | 2021-05-12 | 2021-08-13 | 兰州交通大学 | 基于深度学习的行人流量动态控制系统及方法 |
CN113362379A (zh) * | 2021-07-09 | 2021-09-07 | 肇庆学院 | 一种基于虚拟超声图像的运动目标轨迹追踪检测方法 |
CN113951767A (zh) * | 2021-11-08 | 2022-01-21 | 珠海格力电器股份有限公司 | 可移动设备的控制方法及装置 |
CN113985897A (zh) * | 2021-12-15 | 2022-01-28 | 北京工业大学 | 一种基于行人轨迹预测与社交约束的移动机器人路径规划方法 |
CN114184199A (zh) * | 2021-10-20 | 2022-03-15 | 中国科学院自动化研究所 | 机器人导航的方法、装置、电子设备及存储介质 |
CN116912633A (zh) * | 2023-09-12 | 2023-10-20 | 深圳须弥云图空间科技有限公司 | 目标追踪模型的训练方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011065149A1 (ja) * | 2009-11-25 | 2011-06-03 | 本田技研工業株式会社 | 対象物距離測定装置及び当該装置が搭載された車両 |
CN106774314A (zh) * | 2016-12-11 | 2017-05-31 | 北京联合大学 | 一种基于行走轨迹的家庭服务机器人路径规划方法 |
CN107492113A (zh) * | 2017-06-01 | 2017-12-19 | 南京行者易智能交通科技有限公司 | 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法 |
CN107643752A (zh) * | 2017-05-09 | 2018-01-30 | 清研华宇智能机器人(天津)有限责任公司 | 基于行人轨迹预测的全向移动机器人路径规划算法 |
CN108537818A (zh) * | 2018-03-07 | 2018-09-14 | 上海交通大学 | 基于集群压力lstm的人群轨迹预测方法 |
-
2019
- 2019-07-22 CN CN201910662294.7A patent/CN110488811B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011065149A1 (ja) * | 2009-11-25 | 2011-06-03 | 本田技研工業株式会社 | 対象物距離測定装置及び当該装置が搭載された車両 |
US20120281878A1 (en) * | 2009-11-25 | 2012-11-08 | Honda Motor Co., Ltd. | Target-object distance measuring device and vehicle mounted with the device |
CN106774314A (zh) * | 2016-12-11 | 2017-05-31 | 北京联合大学 | 一种基于行走轨迹的家庭服务机器人路径规划方法 |
CN107643752A (zh) * | 2017-05-09 | 2018-01-30 | 清研华宇智能机器人(天津)有限责任公司 | 基于行人轨迹预测的全向移动机器人路径规划算法 |
CN107492113A (zh) * | 2017-06-01 | 2017-12-19 | 南京行者易智能交通科技有限公司 | 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法 |
CN108537818A (zh) * | 2018-03-07 | 2018-09-14 | 上海交通大学 | 基于集群压力lstm的人群轨迹预测方法 |
Non-Patent Citations (1)
Title |
---|
刘召: "基于行人轨迹预测的全向移动机器人路径规划", 《计算机仿真》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111044045A (zh) * | 2019-12-09 | 2020-04-21 | 中国科学院深圳先进技术研究院 | 基于神经网络的导航方法、装置及终端设备 |
CN111044045B (zh) * | 2019-12-09 | 2022-05-27 | 中国科学院深圳先进技术研究院 | 基于神经网络的导航方法、装置及终端设备 |
CN112685614A (zh) * | 2021-03-17 | 2021-04-20 | 中国电子科技集团公司第三十研究所 | 一种社交媒体机器人群体快速检测方法 |
CN112685614B (zh) * | 2021-03-17 | 2021-06-18 | 中国电子科技集团公司第三十研究所 | 一种社交媒体机器人群体快速检测方法 |
CN113257008A (zh) * | 2021-05-12 | 2021-08-13 | 兰州交通大学 | 基于深度学习的行人流量动态控制系统及方法 |
CN113362379A (zh) * | 2021-07-09 | 2021-09-07 | 肇庆学院 | 一种基于虚拟超声图像的运动目标轨迹追踪检测方法 |
CN114184199A (zh) * | 2021-10-20 | 2022-03-15 | 中国科学院自动化研究所 | 机器人导航的方法、装置、电子设备及存储介质 |
CN113951767A (zh) * | 2021-11-08 | 2022-01-21 | 珠海格力电器股份有限公司 | 可移动设备的控制方法及装置 |
CN113985897A (zh) * | 2021-12-15 | 2022-01-28 | 北京工业大学 | 一种基于行人轨迹预测与社交约束的移动机器人路径规划方法 |
CN113985897B (zh) * | 2021-12-15 | 2024-05-31 | 北京工业大学 | 一种基于行人轨迹预测与社交约束的移动机器人路径规划方法 |
CN116912633A (zh) * | 2023-09-12 | 2023-10-20 | 深圳须弥云图空间科技有限公司 | 目标追踪模型的训练方法及装置 |
CN116912633B (zh) * | 2023-09-12 | 2024-01-05 | 深圳须弥云图空间科技有限公司 | 目标追踪模型的训练方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110488811B (zh) | 2023-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110488811A (zh) | 一种基于社交网络模型的机器人对行人轨迹预测的方法 | |
CN106808482B (zh) | 一种巡检机器人多传感器系统及巡检方法 | |
CN107505939B (zh) | 一种移动机器人的全覆盖路径规划方法 | |
Lee et al. | People tracking using a robot in motion with laser range finder | |
Taylor et al. | A real-time approach to stereopsis and lane-finding | |
CN105930833B (zh) | 一种基于视频监控的车辆跟踪与分割方法 | |
CN103170973B (zh) | 人机协作装置及实现人机协作的方法 | |
CN109459750A (zh) | 一种毫米波雷达与深度学习视觉融合的前方多车辆跟踪方法 | |
CN109544990A (zh) | 一种基于实时电子地图识别可用泊车位的方法及系统 | |
CN106125087A (zh) | 基于激光雷达的舞蹈机器人室内行人跟踪方法 | |
CN113189977B (zh) | 一种用于机器人的智能导航路径规划系统及方法 | |
CN101894378B (zh) | 基于双感兴趣区域的运动目标视觉跟踪方法及系统 | |
CN107193011A (zh) | 一种用于快速计算无人驾驶车感兴趣区域内车辆速度的方法 | |
CN102074018A (zh) | 一种基于深度信息的轮廓跟踪方法 | |
CN108596009A (zh) | 一种用于农机自动驾驶的障碍物检测方法和系统 | |
CN104569964A (zh) | 用于超宽带穿墙雷达的运动目标二维检测与跟踪的方法 | |
CN108733038A (zh) | 机器人局部动态路径规划方法 | |
CN113985897B (zh) | 一种基于行人轨迹预测与社交约束的移动机器人路径规划方法 | |
CN111612823A (zh) | 一种基于视觉的机器人自主跟踪方法 | |
CN114998276B (zh) | 一种基于三维点云的机器人动态障碍物实时检测方法 | |
CN109343051A (zh) | 一种用于高级辅助驾驶的多传感器数据融合方法 | |
CN111258311A (zh) | 一种基于智能视觉的井下移动机器人避障方法 | |
CN113566808A (zh) | 一种导航路径规划方法、装置、设备以及可读存储介质 | |
CN112541938A (zh) | 一种行人速度测量方法、系统、介质及计算设备 | |
CN107728612A (zh) | 识别不同人群进行广告推送的方法、存储装置及移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |