CN112585616A - 用于预测行人的至少一个将来的速度矢量和或将来的姿态的方法 - Google Patents

用于预测行人的至少一个将来的速度矢量和或将来的姿态的方法 Download PDF

Info

Publication number
CN112585616A
CN112585616A CN201980056454.1A CN201980056454A CN112585616A CN 112585616 A CN112585616 A CN 112585616A CN 201980056454 A CN201980056454 A CN 201980056454A CN 112585616 A CN112585616 A CN 112585616A
Authority
CN
China
Prior art keywords
pedestrian
prediction
future
pedestrians
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980056454.1A
Other languages
English (en)
Inventor
L·帕尔米里
A·鲁登科
T·林德
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of CN112585616A publication Critical patent/CN112585616A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • B60W60/00274Planning or execution of driving tasks using trajectory prediction for other traffic participants considering possible movement changes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4043Lateral speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/406Traffic density
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/408Traffic behavior, e.g. swarm
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及一种用于预测(30)在预测区域内的行人的至少一个将来的速度矢量和/或将来的姿态的方法。在该预测(30)的情况下考虑行人的周围环境的地图和在该预测区域内的其他行人的当前的速度矢量。

Description

用于预测行人的至少一个将来的速度矢量和或将来的姿态的 方法
技术领域
本发明涉及一种用于预测在预测区域内的行人的至少一个将来的速度矢量和/或将来的姿态的方法。本发明还涉及:一种计算机程序,该计算机程序实施该方法的每个步骤;以及一种存储该计算机程序的机器可读存储介质。最后,本发明涉及一种电子控制设备,该电子控制设备被设立为实施该方法。
背景技术
为了防止自动驾驶车辆或者机器人与行人碰撞,使用预测行人的将来的速度矢量和姿态的方法。
在US 9233659 B2中描述了一种碰撞报警系统,该碰撞报警系统使用安装在车辆上的摄像机以及处理器。基于行人的被摄像机检测到的图像的尺寸变化来输出对车辆与行人碰撞的报警。为了进一步验证该报警,考虑该图像的随时间的变化和在该图像中检测到的道路标线。在此,当行人经过道路标线或者路边石时,可以识别出该行人的横向移动。
在WO 2015/177648 A1中描述了一种用于探测行人的方法,该方法可以在图像中识别出行人。在此,分析是否存在行人和车辆相撞的危险。为此,从行人和车辆的相应的移动方向和速度来外推出该行人和该车辆的将来的位置。
US 2007/0230792 A1描述了一种可用来识别行人是否可能会进入车辆的行驶范围的方法。为此,在借助于摄像机来记录的图像之内标识出行人。对这些行人进行分类,其方式是他们的所在地点和他们的轨迹与路边石的走向进行比较。如果该分类得出行人处在道路上,则输出碰撞报警。
发明内容
用于预测在预测区域内的行人的至少一个将来的速度矢量和/或将来的姿态的方法规定:在该预测的情况下不仅考虑关于相关行人的数据,而且在该预测的情况下考虑该预测区域的静态地图和在该预测区域内的其他行人的当前的速度矢量。为了可以有效防止与行人的碰撞,需要不仅知道该行人的当前位置和该行人的当前的速度矢量(该当前位置和该当前的速度矢量可以借助于传感器来确定),而且要预测行人的速度矢量和姿态将来会如何发生变化,以便可以及时输出碰撞报警。尤其是当使用该方法来避免高速移动的自动驾驶车辆与行人的碰撞时,知道关于该行人的当前所在地点以及该行人的当前的移动方向和速度的信息并不足够。该行人的速度矢量的将来的变化可能导致:到目前为止被归为无危险的情况变成潜在的碰撞情形。在这种情况下,必须还有足够的时间供支配,以便在车辆与行人发生碰撞之前使该车辆制动或者允许实施避让移动。
现有技术的方法仅考虑速度矢量的由于在静态地图中的静态障碍物而引起的将来的变化或者社交信息而没有考虑关于周围环境的信息,而本方法规定:不仅地图而且其他行人的移动都被包括在该预测之内。在此,这些尤其不仅被视为移动障碍物,而且可以将行人之间的另外的互动包括在该预测之内。
优选地,对于该预测来说,将在预测区域内的行人组成组。在此,根据一组的所有成员的当前的姿态和当前的速度矢量,可以确定该组的当前的姿态和当前的速度矢量。尤其是当根据行人的当前的速度矢量能得出这些行人成组移动时,将这些行人组成一组。尤其是当所有组成员的速度矢量彼此间最多相差预先给定的阈时,推断出这一点。如果所有组成员在该预测中都可以通过共同的姿态和共同的速度矢量统一被看待,则在电子计算设备或控制设备上执行该方法变得容易。
还优选的是:在该预测的情况下考虑行人之间的社交互动。在行人是同一组的成员的情况下,这种社交互动尤其可能存在于有吸引力的互动中,这些有吸引力的互动导致该组的成员绝不与该组的中心、紧挨着的组成员或者该组的领头人远离得超过可预先给定的距离。这可能导致:这些组成员在他们必须避让障碍物时没有选择尽可能短的路线,而是作为替代选择该组的凝聚性被确保的较长的路线。在不属于一组的部分的行人之间,社交互动也可能对于该预测来说重要。这样,行人例如可能短暂停留,以便让另一行人经过或者该行人可以避让该另一行人。在避让移动时的社交互动尤其也可能在于:不是这些行人之一未受影响地继续其路线而另一行人避让,而是两个行人都进行避让移动。
还优选的是:给每个行人都分派目的地。该分派尤其可基于该行人的当前的速度矢量来进行。在该预测的情况下,考虑行人正朝着该目的地移动。即使该行人例如由于在一组之内的社交互动或者由于与不属于他的组的部分的行人的互动或者由于其它因素、诸如静态障碍物而暂时放弃到该目的地的直接路线,在该预测中也仍假定该行人长期来看总是又回到向着该目的地的路线上。
优选地,分多个随时间的子步骤来执行该预测。在这些子步骤中的每个子步骤中,所有在预测速度矢量的情况下被考虑的值都被重新计算。这种值例如是其他行人的速度矢量和姿态以及与这些行人中的每个行人的社交互动。以这种方式,在每个随时间的子步骤中都获得预测,其中前面的子步骤的预测还非常精确,而随着预测向将来进一步发展,精度降低。
在这些子步骤中的每个子步骤中都可以确定行人的将来的姿态。根据所有被确定的将来的姿态,尤其可能的是创建行人的移动地图,该移动地图可以被用于计划自动驾驶车辆或机器人的移动。
行人的当前的姿态和当前的速度矢量尤其可以借助于至少一个传感器来确定,该传感器从由单眼传感器、立体声传感器和深度传感器组成的组中选择。例如,激光雷达(LIDAR)传感器或RGB-D摄像机适合作为深度传感器。
该预测的结果尤其被用于控制自动驾驶车辆或机器人,使得避免与行人的碰撞。在这种情况下,预测区域优选地被选择为使得该预测区域对应于车辆或机器人将来会移动经过的区域。
该计算机程序被设立为:尤其是当该计算机程序在计算设备上或在电子控制设备上运行时,执行该方法的每个步骤。该计算机程序尤其具有预测模块,该预测模块具有移动计划、轨迹片段以及社交情境信息,这些移动计划、轨迹片段以及社交情境信息被用于该预测。该计算机程序能够在电子控制设备中实现该方法的不同的实施方式,而在这方面不必进行结构上的变化。为此,该计算机程序存储在该机器可读存储介质上。
通过将该计算机程序加载到传统的电子控制设备上,得到如下电子控制设备,该电子控制设备被设立用于借助于该方法来预测行人的将来的速度矢量和/或将来的姿态。该电子控制设备尤其是还被设立用于控制自动驾驶车辆和/或机器人,使得避免与行人的碰撞。
附图说明
本发明的实施例在附图中示出并且在随后的描述中进一步予以阐述。
图1示意性示出了自动驾驶车辆的系统架构,该自动驾驶车辆借助于按照本发明的方法的实施例来预测行人的至少一个将来的速度矢量和将来的姿态。
图2示意性示出了在按照本发明的方法的实施例中预测行人的将来的速度矢量和将来的姿态的过程。
图3示意性示出了多个行人之间的社交互动,这些社交互动在按照本发明的方法的实施例中被用于预测行人的至少一个将来的速度矢量和将来的姿态。
图4示意性示出了在按照本发明的实施例的方法中行人组相对于自动驾驶车辆的移动。
图5以图表示出了按照比较示例和本发明的实施例在仿真中作为预测时长的函数的负对数概率。
图6以图表示出了按照比较示例和本发明的实施例在仿真中作为预测时长的函数的修正Hausdorff距离(Modified Hausdorff Distance)。
具体实施方式
在用于预测行人的至少一个将来的速度矢量和将来的姿态以便避免该行人与自动驾驶车辆的碰撞的方法的实施例中,由车辆的传感器来创建车辆将来会移动经过的区域的地图11。地图11包含该区域的所有地理特征。应该做出关于在该区域内行人是否可能会进入车辆的移动路径使得存在碰撞危险的预测。因此,该区域在下文被称作预测区域。借助于传感器来创建预测区域的图像,并且在这些图像之内进行对人员的识别12。在预测模块20中,现在根据地图11来创建移动计划21,在该移动计划中能看出行人可以在不被障碍物阻挡的预测区域的哪些部分内移动。关于各个行人所检测到的数据被分成轨迹片段22和社交情境信息23。轨迹片段22包括行人的当前的速度矢量和当前的姿态。在此,每个速度矢量都包含关于行人的移动方向及其移动速度的信息。姿态说明了该行人的取向。社交情境信息23通过图像分析来获得并且能够实现关于哪些单独的行人是具有共同目的地的组的部分的结论。移动计划21、轨迹片段22和社交情境信息23都供预测30支配。一方面,该预测的结果被转交给自动驾驶车辆的控制器40,以便避免与行人的碰撞。另一方面,该结果也被用于下一次执行在所拍摄的图像中对行人的识别12时简化该识别12。
在图2中详细示出了预测30如何进行。在步骤31中,检测移动计划21、轨迹片段22和社交情境信息23,其中各个行人基于社交情境信息23而被组成组。在下一个步骤32中,基于行人的当前的速度矢量来外推出这些行人的目的地。为此,考虑这些行人的多个可能的移动路线和目的地。在下一个步骤33中,这些移动路线和目的地在使用移动计划21的情况下被修正,使得只保留基于地图11而合理的目的地。在下一个步骤34中,关于每个行人的当前的速度矢量、当前的姿态和目的地所收集的数据被转交给预测功能50。该预测功能具有四个子步骤。在第一子步骤51中,确定每个行人在预先给定的时间段内基于该行人的目的地、该行人的当前的速度矢量和该行人的当前的姿态而可能会在预测区域内选择哪条路线。在第二子步骤52中,对该路线进行修正,其方式是考虑每个行人与相邻行人的社交互动。这些社交互动基于行人的典型的移动模式是避免与其他行人碰撞的可能方式。在第三子步骤53中,基于组成员之间的社交互动进行重新修正。这些社交互动影响移动,使得组不分裂。在第四子步骤54中,基于前三个子步骤51、52、53的结果,在该时间段结束时由所预测的将来的姿态和将来的速度矢量来替代当前的姿态和当前的速度矢量。这样确定的将来的姿态在移动地图35中被录入并且在那里与该预测所基于的时间段相关联。接着,重新执行子步骤51至54,其中替代根据步骤34所转交的当前的速度矢量和当前的姿态,现在使用行人的在步骤54中确定的将来的速度矢量和将来的姿态。而步骤34中的行人的目的地保持不变。利用对子步骤51至54的每次遍历,在移动地图35中针对新的时间段产生其它录入项。最后,将移动地图35转交给控制器40,使得该控制器可以针对每个时间段读取在预测区域内的所有人员的最可能的所在地点。
在图3中进一步阐明了子步骤51至53的过程。在该图3中,示出了六个人员61至66的移动。前三个人员61至63构成一组。该组环绕着中心70被编组。在预测区域80内,该组的成员当前在图3中竖直向上移动。在图3中通过箭头来示出其他行人64至66的当前的速度矢量V64-66 akt。在该组之内,有吸引力的社交互动F61-63 att对组成员有影响,这些组成员由于这些有吸引力的社交互动朝着中心70移动。这些有吸引力的社交互动F61-63 att可以按照公式1针对每个行人i被计算:
Figure 933773DEST_PATH_IMAGE001
     (公式1)
在此,α表示组吸引力的强度而Ui是从行人i指向中心70的单位矢量。值q是阈值,该阈值说明了有吸引力的社交互动究竟是否有效。如果行人i与中心70之间的距离小于该阈值,则适用Fi att = 0。即,只有当行人i远离中心70得超过该阈值时,组吸引力才起作用。
其它社交互动F61-62 vis导致:该组的前两个行人61、62降低他们的速度,以便第三个行人63不失去与该组的接触。这些其它社交互动F61-62 vis可以按照公式2针对每个行人i被计算:
Figure 382072DEST_PATH_IMAGE002
     (公式2)
在此,β表示在该组之内的互动的强度。行人i的当前的速度矢量vi akt与该行人的视线方向之间的角度用γi来表示。
所有行人61至66沿着他们当前的速度矢量的继续移动不可能在此不发生碰撞。因此,排斥性社交互动F61-66 soc发挥作用,这些排斥性社交互动使行人61至66中的每个行人移动以避让其他行人。这些排斥性社交互动Fi,j soc可以按照公式3针对每个行人i相对于另一行人j被计算:
Figure 896230DEST_PATH_IMAGE003
     (公式3)
在此,aj > 0表示排斥性社交互动的强度而bj > 0表示排斥性社交互动的方向。两个行人i、j之间的距离被表示为di,j,而ri,j表示这些行人的半径之和。各向异性因子λ∈[0,1]使排斥性社交互动沿行人i的移动方向缩放。当从行人i指向行人j的归一化矢量ni,j与行人i的当前的速度矢量vi akt之间的角度
Figure 88177DEST_PATH_IMAGE004
为零时,互动达到其最大值。当
Figure 636970DEST_PATH_IMAGE005
时,该互动变得最小。
在考虑所有这些因素的情况下,确定行人61至66的将来的速度矢量v61-66 zuk,这些将来的速度矢量不同于这些行人的当前的速度矢量。在此,所有行人61至66的将来的移动都通过虚线来呈现。能看出:将来的速度矢量v61-66 zuk会在各个时间段内发生变化,使得每个行人61至66都会在经过另一行人之后重新向他原来的目的地移动。
图4示出了是该组的成员的行人61至63的当前的移动可以如何通过从该组的中心70出发的共同的当前的速度矢量v70 akt来呈现。在图4中示出的状况下已经计划向左水平移动的自动驾驶车辆90可以借助于在当前情况下实施为RGB-D摄像机的传感器91来识别行人61至63。在该自动驾驶车辆的电子控制设备92中,该电子控制设备借助于按照本发明的方法来预测这些组成员的移动,以便使该自动驾驶车辆的移动方向匹配,以便必要时降低该自动驾驶车辆的速度或者以便停下并且这样来避免与这些组成员的碰撞。本身不可能会进入车辆90的移动方向的其他行人仍然被传感器91检测并且在该预测的情况下被考虑,因为这些其他行人可能通过社交互动影响这些组成员的将来的移动。
基于在D. Brscic,T. Kanda,T. Ikeda,T. Miyashita的“Person Position andbody direction tracking in large public spaces using 3D range sensors”,IEEETransactions on Human-Machine Systems,第43卷,第6期,第522-534页,2013年中描述的在日本大阪的ATC百货商店的仿真环境,执行按照本发明的预测B1和按照比较示例VB1、VB2的两个预测。在此,对于比较示例VB1来说,使用了按照V. Karasev,A. Ayvaci,B.Heisele,S. Soatto的“Intent-aware longterm prediction of pedestrian motion”,in2016 IEEE International Conference on Robotics and Automation (ICRA),2016年5月的预测方法。在该预测方法中,虽然考虑到预测区域80的地图11。但是,在该预测的情况下并没有考虑在预测区域80内的其他行人61-66的当前的速度矢量(v61-66 akt)。在此,对于比较示例VB2来说,使用了按照J. Elfring,R. Van De Molengraft,M. Steinbuch的“Learning intentions for improved human motion prediction”,Robotics andAutonomous Systems,第62卷,第4期,第591-602页,2014年的预测方法。在该方法中,在该预测的情况下考虑在预测区域80内的其他行人61-66的当前的速度矢量v61-66 akt。但是没有考虑预测区域80的地图11。
在按照本发明的示例B1中以及在比较示例VB1、VB2中,仿真了总共具有172个人员的21个场景,其中90个行人成组,总共有15个不一样地可能的目的地。在为12秒的时间段t内进行预测。在图6中示出了在相应的仿真中平均获得的负对数概率NLP,而在图7中示出了平均获得的修正Hausdorff距离MHD。能看出:按照本发明的方法与比较示例VB1、VB2相比提供了NLP和MHD的更低的值。因此,按照本发明的方法更精确。

Claims (13)

1.一种用于预测(30)在预测区域(80)内的行人(61-66)的至少一个将来的速度矢量(v61-66 zuk)和/或将来的姿态的方法,其特征在于,在所述预测的情况下考虑所述预测区域(80)的地图(11)和在所述预测区域(80)内的其他行人(61-66)的当前的速度矢量(v61-66 akt)。
2.根据权利要求1所述的方法,其特征在于,对于所述预测(30)来说,在所述预测区域(80)内的行人(61-63)被组成(53)组,其中根据一组的所有成员的当前的姿态和当前的速度矢量(v61-63 akt)来确定所述组的当前的姿态和当前的速度矢量(v70 akt)。
3.根据权利要求1或2所述的方法,其特征在于,在所述预测(30)的情况下分别考虑(52)所述行人(61-66)之间的社交互动(F61-66 soc、F61-63 att、F61-62 vis)。
4.根据权利要求1至3中任一项所述的方法,其特征在于,给每个行人(61-66)分派(34)目的地并且在所述预测(30)的情况下考虑所述行人朝着所述目的地移动。
5.根据权利要求1至4中任一项所述的方法,其特征在于,分多个随时间的子步骤来执行所述预测(30),其中对于每个子步骤来说所有在预测所述速度矢量(v61-66 zuk)的情况下被考虑的值都被重新计算。
6.根据权利要求5所述的方法,其特征在于,在每个子步骤中都确定所述行人(61-66)的将来的姿态,并且根据所有被确定的将来的姿态来创建(35)所述行人(61-66)的移动地图。
7.根据权利要求1至6中任一项所述的方法,其特征在于,所述行人(61-66)的当前的姿态和当前的速度矢量(v61-66 akt)借助于至少一个传感器(91)来确定,所述传感器从由单眼传感器、立体声传感器和深度传感器组成的组中选择。
8.根据权利要求1至7中任一项所述的方法,其特征在于,所述预测(30)的结果被用于控制自动驾驶车辆(90)或机器人,使得避免(40)与所述行人(61-66)的碰撞。
9.一种计算机程序,其被设立为执行根据权利要求1至8中任一项所述的方法的每个步骤。
10.根据权利要求9所述的计算机程序,所述计算机程序具有预测模块(20),所述预测模块具有移动计划(21)、轨迹片段(22)以及社交情境信息(23),所述移动计划、轨迹片段以及社交情境信息被用于所述预测(30)。
11.一种机器可读存储介质,在其上存储有根据权利要求9或10所述的计算机程序。
12.一种电子控制设备(93),所述电子控制设备被设立用于借助于根据权利要求1至8中任一项所述的方法来预测行人(61-66)的将来的速度矢量(v61-66 zuk)和/或将来的姿态。
13.根据权利要求12所述的电子控制设备(93),其特征在于,所述电子控制设备还被设立用于控制根据权利要求8所述的自动驾驶车辆(90)或机器人,使得避免(40)与所述行人(61-66)的碰撞。
CN201980056454.1A 2018-08-29 2019-05-03 用于预测行人的至少一个将来的速度矢量和或将来的姿态的方法 Pending CN112585616A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102018214635.7A DE102018214635A1 (de) 2018-08-29 2018-08-29 Verfahren zur Vorhersage zumindest eines zukünftigen Geschwindigkeitsvektors und/oder einer zukünftigen Pose eines Fußgängers
DE102018214635.7 2018-08-29
PCT/EP2019/061339 WO2020043328A1 (de) 2018-08-29 2019-05-03 VERFAHREN ZUR VORHERSAGE ZUMINDEST EINES ZUKÜNFTIGEN GESCHWINDIGKEITSVEKTORS UND/ODER EINER ZUKÜNFTIGEN POSE EINES FUßGÄNGERS

Publications (1)

Publication Number Publication Date
CN112585616A true CN112585616A (zh) 2021-03-30

Family

ID=66530004

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980056454.1A Pending CN112585616A (zh) 2018-08-29 2019-05-03 用于预测行人的至少一个将来的速度矢量和或将来的姿态的方法

Country Status (5)

Country Link
US (1) US11958482B2 (zh)
EP (1) EP3844664A1 (zh)
CN (1) CN112585616A (zh)
DE (1) DE102018214635A1 (zh)
WO (1) WO2020043328A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11884302B2 (en) * 2019-11-15 2024-01-30 Massachusetts Institute Of Technology Social behavior for autonomous vehicles
DE102022001327A1 (de) 2022-04-19 2022-06-02 Mercedes-Benz Group AG Verfahren zur Darstellung einer Pose einer Person in einem Bild, sowie elektronisches System

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130329958A1 (en) * 2011-03-28 2013-12-12 Nec Corporation Person tracking device, person tracking method, and non-transitory computer readable medium storing person tracking program
CN105550500A (zh) * 2015-12-08 2016-05-04 吉林大学 一种基于社会力的行人跟随行为仿真方法
CN108320513A (zh) * 2018-03-30 2018-07-24 南京理工大学 一种绿灯闪烁信号时行人过街行为分析方法
CN108428243A (zh) * 2018-03-07 2018-08-21 北京航空航天大学 一种基于人工神经网络的行人运动速度预测方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005098739A1 (en) 2004-04-08 2005-10-20 Mobileye Technologies Limited Pedestrian detection
DE102008049824B4 (de) * 2008-10-01 2014-09-04 Universität Kassel Verfahren zur Kollisionsvermeidung
DE102008062916A1 (de) * 2008-12-23 2010-06-24 Continental Safety Engineering International Gmbh Verfahren zur Ermittlung einer Kollisionswahrscheinlichkeit eines Fahrzeuges mit einem Lebewesen
US9233659B2 (en) 2011-04-27 2016-01-12 Mobileye Vision Technologies Ltd. Pedestrian collision warning system
WO2015177648A1 (en) 2014-05-14 2015-11-26 Ofer Springer Systems and methods for curb detection and pedestrian hazard assessment
DE102014219148A1 (de) * 2014-09-23 2016-03-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erstellen eines Bewegungsmodells eines Straßenverkehrsteilnehmers
US9786177B2 (en) * 2015-04-10 2017-10-10 Honda Motor Co., Ltd. Pedestrian path predictions
DE102017217056B4 (de) * 2017-09-26 2023-10-12 Audi Ag Verfahren und Einrichtung zum Betreiben eines Fahrerassistenzsystems sowie Fahrerassistenzsystem und Kraftfahrzeug
US11390275B2 (en) * 2017-09-29 2022-07-19 Honda Motor Co., Ltd. Vehicle control device, vehicle control method, and program
JP7000202B2 (ja) * 2018-02-27 2022-01-19 本田技研工業株式会社 車両制御システム、車両制御方法、およびプログラム
KR20200017917A (ko) * 2018-08-10 2020-02-19 현대자동차주식회사 차량 및 그 제어 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130329958A1 (en) * 2011-03-28 2013-12-12 Nec Corporation Person tracking device, person tracking method, and non-transitory computer readable medium storing person tracking program
CN105550500A (zh) * 2015-12-08 2016-05-04 吉林大学 一种基于社会力的行人跟随行为仿真方法
CN108428243A (zh) * 2018-03-07 2018-08-21 北京航空航天大学 一种基于人工神经网络的行人运动速度预测方法
CN108320513A (zh) * 2018-03-30 2018-07-24 南京理工大学 一种绿灯闪烁信号时行人过街行为分析方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ANDREY RUDENKO ET AL.: "Joint Long-Term Prediction of Human Motion Using a Planning-Based Social Force Approach", 2018 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA), pages 1 - 7 *
MEHDI MOUSSAÏD ET AL.: "The Walking Behaviour of Pedestrian Social Groups and Its Impact on Crowd Dynamics", PLOS ONE, vol. 5, no. 4, pages 1 - 7 *

Also Published As

Publication number Publication date
US20210309220A1 (en) 2021-10-07
WO2020043328A1 (de) 2020-03-05
US11958482B2 (en) 2024-04-16
EP3844664A1 (de) 2021-07-07
DE102018214635A1 (de) 2020-03-05

Similar Documents

Publication Publication Date Title
US11645916B2 (en) Moving body behavior prediction device and moving body behavior prediction method
US20220080961A1 (en) Control system and control method for sampling based planning of possible trajectories for motor vehicles
US20200211395A1 (en) Method and Device for Operating a Driver Assistance System, and Driver Assistance System and Motor Vehicle
US10849543B2 (en) Focus-based tagging of sensor data
US11932306B2 (en) Trajectory planner
EP3091370A1 (en) Method and arrangement for determining safe vehicle trajectories
JP2021504825A (ja) 自律走行車両運行管理計画
WO2018220418A1 (en) Driving assistance method and system
US11648965B2 (en) Method and system for using a reaction of other road users to ego-vehicle actions in autonomous driving
EP4036892A1 (en) Detection system for predicting information on pedestrian
JP2020126634A (ja) 緊急車両をリアルタイムで検出し、緊急車両によって発生すると予想される状況に対処するための走行経路を計画する方法及び装置
US11814072B2 (en) Method and system for conditional operation of an autonomous agent
JP2020086545A (ja) 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム
CN112585616A (zh) 用于预测行人的至少一个将来的速度矢量和或将来的姿态的方法
JP2023541322A (ja) 低信頼度の物体検出条件における車両動作のための注釈及びマッピング
US11663807B2 (en) Systems and methods for image based perception
Huang et al. An intent inference based dynamic obstacle avoidance method for intelligent vehicle in structured environment
Mishra et al. Recent advancement in autonomous vehicle and driver assistance systems
US11966452B2 (en) Systems and methods for image based perception
EP4131175A1 (en) Systems and methods for image based perception
US11881031B2 (en) Hierarchical processing of traffic signal face states
US20230252638A1 (en) Systems and methods for panoptic segmentation of images for autonomous driving
US20230054626A1 (en) Persisting Predicted Objects for Robustness to Perception Issues in Autonomous Driving
US20230410469A1 (en) Systems and methods for image classification using a neural network combined with a correlation structure
US20230084623A1 (en) Attentional sampling for long range detection in autonomous vehicles

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination