CN112686324A - 自动驾驶车辆的感知方法及装置 - Google Patents
自动驾驶车辆的感知方法及装置 Download PDFInfo
- Publication number
- CN112686324A CN112686324A CN202110005198.2A CN202110005198A CN112686324A CN 112686324 A CN112686324 A CN 112686324A CN 202110005198 A CN202110005198 A CN 202110005198A CN 112686324 A CN112686324 A CN 112686324A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- cloud data
- current frame
- target
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000001514 detection method Methods 0.000 claims abstract description 80
- 230000008447 perception Effects 0.000 claims abstract description 14
- 238000004590 computer program Methods 0.000 claims description 11
- 230000004927 fusion Effects 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 230000000694 effects Effects 0.000 abstract description 14
- 238000012544 monitoring process Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
本申请提供一种自动驾驶车辆的感知方法,该方法可以应用于自动驾驶车辆、无人驾驶车辆以及无人车中。该方法包括:获取当前帧的点云数据及当前帧之前的预定帧数的点云数据;根据当前帧的点云数据及当前帧之前的预定帧数的点云数据,得到目标点云数据;根据目标点云数据,得到目标检测结果。可见,实施这种实施方式,能够提高对目标的感知精度,从而提高对目标的监测效果。
Description
技术领域
本申请涉及自动驾驶车辆技术领域,具体而言,涉及一种自动驾驶车辆的感知方法及装置。
背景技术
自动驾驶车辆的感知主要涉及目标检测与目标跟踪,其中,在目标检测方面,三维检测是常用的目标检测方式之一。目前,三维检测需要使用激光雷达获得点云数据,由于激光雷达的价格较高,大多自动驾驶车辆往往只会设置少数的激光雷达,但少数的激光雷达的设置,导致了激光雷达获得的点云数据偏少,影响了自动驾驶车辆感知时的目标检测的精度。
发明内容
本申请实施例的目的在于提供一种自动驾驶车辆的感知方法及装置,能够提高对目标的感知精度,从而提高对目标的监测效果。
第一方面,本申请实施例提供了一种自动驾驶车辆的感知方法,包括:
获取当前帧的点云数据及当前帧之前的预定帧数的点云数据;
根据所述当前帧的点云数据及所述当前帧之前的预定帧数的点云数据,得到目标点云数据;
根据所述目标点云数据,得到目标检测结果。
在上述实现过程中,该自动驾驶车辆的感知方法可以优先获取当前帧的点云数据和当前帧之前几帧的点云数据,然后再根据获取到的所有点云数据生成一个包括多点云数据信息的目标点云数据,最后再根据目标点云数据确定出点云数据中的检测目标,并确定该目标的位置信息和其对应的点云数据为目标检测结果。可见,实施这种实施方式,能够通过自动驾驶车辆获取的多帧点云数据生成更加稠密的点云数据,使得对目标的检测精度得以提高,同时能够避免目标的丢失,提高目标的整体检测效果。
进一步地,所述根据所述当前帧的点云数据及所述当前帧之前的预定帧数的点云数据,得到目标点云数据,包括:
将所述当前帧的点云数据及所述当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据。
在上述实现过程中,该方法能够对多帧点云数据进行融合,使得最终得到的目标点云数据可以叠加众多点云数据,从而促使点云数据的密度更高,精度也随之提高。
进一步地,所述将所述当前帧的点云数据及所述当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据,包括:
对应地获取当前帧的陀螺仪数据及当前帧之前的预定帧数的陀螺仪数据;
根据所述当前帧的陀螺仪数据及所述当前帧之前的预定帧数的陀螺仪数据对所述当前帧的点云数据和所述当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据。
在上述实现过程中,该方法能够将陀螺仪数据和点云数据进行融合,得到更加准确的目标点云数据,从而使得点云数据可以根据陀螺仪获取到的实时参数计算出自动驾驶车辆的运动参数,从而在点云数据中增加时间的维度,进而使得目标点云数据可以接连成四维结果数据,进而提高目标的可追溯性。
进一步地,所述根据所述当前帧的陀螺仪数据及所述当前帧之前的预定帧数的陀螺仪数据对所述当前帧的点云数据和所述当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据,采用如下融合公式:
PF(T)=R(T)×P(T)+R(T-1)×P(T-1)+…+R(T-n)×P(T-n);
其中,PF(T)为所述目标点云数据,R(T)为所述当前帧的陀螺仪数据,P(T)为所述当前帧的点云数据,R(T-1)为当前帧的前一帧的陀螺仪数据,P(T-1)为当前帧的前一帧的点云数据,R(T-n)为当前帧的第前n帧的陀螺仪数据,P(T-n)为当前帧的第前n帧的点云数据。
在上述实现过程中,该方法可以使用上述的融合公式将陀螺仪数据和点云数据进行融合,从而使得点云数据和陀螺仪数据更加高效地、准确地融合。
进一步地,在所述根据所述目标点云数据,得到目标检测结果之后,所述方法还包括:
获取前一帧的检测结果;
根据所述前一帧的检测结果及所述目标检测结果,得到目标跟踪结果。
在上述实现过程中,该方法可以优先获取前一帧的检测结果;然后再根据前一帧的检测结果及目标检测结果,得到目标跟踪结果。可见,实施这种实施方式,能够将目标跟踪结果中的目标前后比对,避免目标在目标跟踪结果中突然消失,从而提高对目标的检测效果,进而提高自动驾驶车辆的感知效果。
第二方面,本申请实施例提供了一种自动驾驶车辆的感知装置,包括:
获取模块,用于获取当前帧的点云数据及当前帧之前的预定帧数的点云数据;
计算模块,用于根据所述当前帧的点云数据及所述当前帧之前的预定帧数的点云数据,得到目标点云数据;
检测模块,用于根据所述目标点云数据,得到目标检测结果。
在上述实现过程中,该自动驾驶车辆的感知装置能够通过多个模块之间的协同工作实现对目标的检测,得到目标检测结果;同时,该自动驾驶车辆的感知装置还能够通过对多帧点云数据的计算完成点云数据稠密程度的增加,进而提高目标检测的效果。
进一步地,所述计算模块,具体用于:
将所述当前帧的点云数据及所述当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据。
在上述实现过程中,该装置能够对多帧点云数据进行融合,使得最终得到的目标点云数据可以叠加众多点云数据,从而促使点云数据的密度更高,精度也随之提高。
进一步地,所述计算模块包括:
获取子模块,用于对应地获取当前帧的陀螺仪数据及当前帧之前的预定帧数的陀螺仪数据;
计算子模块,用于根据所述当前帧的陀螺仪数据及所述当前帧之前的预定帧数的陀螺仪数据对所述当前帧的点云数据和所述当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据。
在上述实现过程中,该装置能够将陀螺仪数据和点云数据进行融合,得到更加准确的目标点云数据,从而使得点云数据可以根据陀螺仪获取到的实时参数计算出自动驾驶车辆的运动参数,从而在点云数据中增加时间的维度,进而使得目标点云数据可以接连成四维结果数据,进而提高目标的可追溯性。
进一步地,所述根据所述当前帧的陀螺仪数据及所述当前帧之前的预定帧数的陀螺仪数据对所述当前帧的点云数据和所述当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据过程采用如下融合公式:
PF(T)=R(T)×P(T)+R(T-1)×P(T-1)+…+R(T-n)×P(T-n);
其中,PF(T)为所述目标点云数据,R(T)为所述当前帧的陀螺仪数据,P(T)为所述当前帧的点云数据,R(T-1)为当前帧的前一帧的陀螺仪数据,P(T-1)为当前帧的前一帧的点云数据,R(T-n)为当前帧的第前n帧的陀螺仪数据,P(T-n)为当前帧的第前n帧的点云数据。
在上述实现过程中,该装置可以使用上述的融合公式将陀螺仪数据和点云数据进行融合,从而使得点云数据和陀螺仪数据更加高效地、准确地融合。
进一步地,自动驾驶车辆的感知装置还包括:
所述获取模块,还用于获取前一帧的检测结果;
跟踪模块,还用于根据所述前一帧的检测结果及所述目标检测结果,得到目标跟踪结果。
在上述实现过程中,该装置优先获取前一帧的检测结果;然后再根据前一帧的检测结果及目标检测结果,得到目标跟踪结果。可见,实施这种实施方式,能够将目标跟踪结果中的目标前后比对,避免目标在目标跟踪结果中突然消失,从而提高对目标的检测效果,进而提高自动驾驶车辆的感知效果。
第三方面,本申请实施例提供了一种电子设备,包括存储器及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行上述的自动驾驶车辆的感知方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其存储有计算机程序,所述计算机程序被处理器执行时实现上述的自动驾驶车辆的感知方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种自动驾驶车辆的感知方法的流程示意图;
图2为本申请实施例提供的另一种自动驾驶车辆的感知方法的流程示意图;
图3为本申请实施例提供的一种自动驾驶车辆的感知装置的结构示意图;
图4为本申请实施例提供的另一种自动驾驶车辆的感知装置的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
实施例1
请参看图1,图1为本申请实施例提供了一种自动驾驶车辆的感知方法的流程示意图。其中,该自动驾驶车辆的感知方法包括:
S101、获取当前帧的点云数据及当前帧之前的预定帧数的点云数据。
本实施例中,预定帧数优选为三帧。
在本实施例中,点云数据是通过自动驾驶车辆上设置的激光雷达获取到的。
在本实施例中,点云数据实时获取,该过程可以将多帧点云数据进行组合,使得多个点云数据集中在一起形成一个更加稠密的点云数据,该更加稠密的点云数据即后续的目标点云数据。
S102、根据当前帧的点云数据及当前帧之前的预定帧数的点云数据,得到目标点云数据。
本实施例中,目标点云数据是根据多个点云数据生成的。
在本实施例中,目标点云数据可以理解为多个点云数据的集合体。
S103、根据目标点云数据,得到目标检测结果。
本实施例中,目标点云数据中包括目标,该方法可以在目标点云数据中获取目标的点云数据,并进一步根据该点云数据生成目标检测结果。
本申请实施例中,该方法的执行主体可以为计算机、服务器等计算装置,对此本实施例中不作任何限定。
可见,实施本实施例所描述的自动驾驶车辆的感知方法,能够优先获取当前帧的点云数据和当前帧之前几帧的点云数据,然后再根据获取到的所有点云数据生成一个包括多点云数据信息的目标点云数据,最后再根据目标点云数据确定出点云数据中的检测目标,并确定该目标的位置信息和其对应的点云数据为目标检测结果。可见,实施这种实施方式,能够通过自动驾驶车辆获取的多帧点云数据生成更加稠密的点云数据,使得对目标的检测精度得以提高,同时能够避免目标的丢失,提高目标的整体检测效果。
实施例2
请参看图2,图2为本申请实施例提供的一种自动驾驶车辆的感知方法的流程示意图。如图2所示,其中,该自动驾驶车辆的感知方法包括:
S201、获取当前帧的点云数据及当前帧之前的预定帧数的点云数据。
作为一种可选的实施方式,在获取当前帧的点云数据及当前帧之前的预定帧数的点云数据的步骤之后,该方法还可以包括:
在将当前帧的点云数据及当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据。
本实施例中,该方法可以利用三维重建的方法对点云数据进行三维处理,从而得到更准确、更有效的目标点云数据。
在本实施例中,假设激光雷达获取到的点云数据为20000个,那么当获取到4帧点云数据并进行相应融合时,最终获取到的目标点云数据中点云的数量将为80000个。
作为一种进一步可选的实施方式,在将当前帧的点云数据及当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据的步骤可以包括步骤S202~S203。
S202、对应地获取当前帧的陀螺仪数据及当前帧之前的预定帧数的陀螺仪数据。
本实施例中,陀螺仪数据包括速度数据、加速度数据、角速度数据。
在本实施例中,该方法可以通过陀螺仪数据与时间差确定出当前时刻的点云中心相对于世界坐标系的状态转换矩阵。从而使得所有时刻点下的点云数据可以通过该方式获取到的状态转换矩阵转换到统一坐标系下,进而促使所有点云数据位于世界坐标系下,有利于提高目标检测的宏观程度与准确性。
S203、根据当前帧的陀螺仪数据及当前帧之前的预定帧数的陀螺仪数据对当前帧的点云数据和当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据。
本实施例中,根据当前帧的陀螺仪数据及当前帧之前的预定帧数的陀螺仪数据对当前帧的点云数据和当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据,采用如下融合公式:
PF(T)=R(T)×P(T)+R(T-1)×P(T-1)+…+R(T-n)×P(T-n);
其中,PF(T)为目标点云数据,R(T)为当前帧的陀螺仪数据,P(T)为当前帧的点云数据,R(T-1)为当前帧的前一帧的陀螺仪数据,P(T-1)为当前帧的前一帧的点云数据,R(T-n)为当前帧的第前n帧的陀螺仪数据,P(T-n)为当前帧的第前n帧的点云数据。
S204、根据目标点云数据,得到目标检测结果。
S205、获取前一帧的检测结果。
本实施例中,获取前一帧的监测结果能够避免在目标检测的过程中出现目标消失的问题。
在本实施例中,由于目标检测具有不稳定性,在上一时刻检测概率较高的目标可能在本时刻检测概率很低。因此,该方法可以通过两帧的检测结果进行相应优化,从而得到一个更加稳定的目标轨迹,即后续的目标跟踪结果。
S206、根据前一帧的检测结果及目标检测结果,得到目标跟踪结果。
作为一种可选的实施方式,根据前一帧的检测结果及目标检测结果,得到目标跟踪结果的步骤包括:
对目标检测结果和前一帧的检测结果进行匹配,得到检测结果集合;
根据检测结果集合确定目标信息;
根据目标信计算目标距离;
根据匈牙利算法、目标距离进行计算,得到目标跟踪结果。
实施这种实施方式,能够避免自动驾驶车辆在跟踪目标的过程中产生漏检的情况。
可见,实施本实施例所描述的自动驾驶车辆的感知方法,能够通过自动驾驶车辆获取的多帧点云数据生成更加稠密的点云数据,使得对目标的检测精度得以提高,同时能够避免目标的丢失,提高目标的整体检测效果。
实施例3
请参看图3,图3为本申请实施例提供的一种自动驾驶车辆的感知装置的结构示意图。如图3所示,该自动驾驶车辆的感知装置包括:
获取模块310,用于获取当前帧的点云数据及当前帧之前的预定帧数的点云数据;
计算模块320,用于根据当前帧的点云数据及当前帧之前的预定帧数的点云数据,得到目标点云数据;
检测模块330,用于根据目标点云数据,得到目标检测结果。
本申请实施例中,对于自动驾驶车辆的感知装置的解释说明可以参照实施例1或实施例2中的描述,对此本实施例中不再多加赘述。
可见,实施本实施例所描述的自动驾驶车辆的感知装置,能够通过自动驾驶车辆获取的多帧点云数据生成更加稠密的点云数据,使得对目标的检测精度得以提高,同时能够避免目标的丢失,提高目标的整体检测效果。
实施例4
请一并参阅图4,图4是本申请实施例提供的一种自动驾驶车辆的感知装置的结构示意图。其中,图4所示的自动驾驶车辆的感知装置是由图3所示的自动驾驶车辆的感知装置进行优化得到的。如图4所示,计算模块320,具体用于将当前帧的点云数据及当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据。
实施这种实施方式,该装置能够对多帧点云数据进行融合,使得最终得到的目标点云数据可以叠加众多点云数据,从而促使点云数据的密度更高,精度也随之提高。
作为一种可选的实施方式,计算模块320包括:
获取子模块321,用于对应地获取当前帧的陀螺仪数据及当前帧之前的预定帧数的陀螺仪数据;
计算子模块322,用于根据当前帧的陀螺仪数据及当前帧之前的预定帧数的陀螺仪数据对当前帧的点云数据和当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据。
实施这种实施方式,该装置能够将陀螺仪数据和点云数据进行融合,得到更加准确的目标点云数据,从而使得点云数据可以根据陀螺仪获取到的实时参数计算出自动驾驶车辆的运动参数,从而在点云数据中增加时间的维度,进而使得目标点云数据可以接连成四维结果数据,进而提高目标的可追溯性。
作为一种可选的实施方式,根据当前帧的陀螺仪数据及当前帧之前的预定帧数的陀螺仪数据对当前帧的点云数据和当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据过程采用如下融合公式:
PF(T)=R(T)×P(T)+R(T-1)×P(T-1)+…+R(T-n)×P(T-n);
其中,PF(T)为目标点云数据,R(T)为当前帧的陀螺仪数据,P(T)为当前帧的点云数据,R(T-1)为当前帧的前一帧的陀螺仪数据,P(T-1)为当前帧的前一帧的点云数据,R(T-n)为当前帧的第前n帧的陀螺仪数据,P(T-n)为当前帧的第前n帧的点云数据。
实施这种实施方式,该装置可以使用上述的融合公式将陀螺仪数据和点云数据进行融合,从而使得点云数据和陀螺仪数据更加高效地、准确地融合。
作为一种可选的实施方式,自动驾驶车辆的感知装置还包括:
获取模块310,还用于获取前一帧的检测结果;
跟踪模块340,还用于根据前一帧的检测结果及目标检测结果,得到目标跟踪结果。
实施这种实施方式,该装置优先获取前一帧的检测结果;然后再根据前一帧的检测结果及目标检测结果,得到目标跟踪结果。可见,实施这种实施方式,能够将目标跟踪结果中的目标前后比对,避免目标在目标跟踪结果中突然消失,从而提高对目标的检测效果,进而提高自动驾驶车辆的感知效果。
本申请实施例中,对于自动驾驶车辆的感知装置的解释说明可以参照实施例1或实施例2中的描述,对此本实施例中不再多加赘述。
可见,实施本实施例所描述的自动驾驶车辆的感知装置,能够通过自动驾驶车辆获取的多帧点云数据生成更加稠密的点云数据,使得对目标的检测精度得以提高,同时能够避免目标的丢失,提高目标的整体检测效果。
本申请实施例提供了一种电子设备,包括存储器以及处理器,存储器用于存储计算机程序,处理器运行计算机程序以使电子设备执行本申请实施例1或实施例2中任一项自动驾驶车辆的感知方法。
本申请实施例提供了一种计算机可读存储介质,其存储有计算机程序指令,计算机程序指令被一处理器读取并运行时,执行本申请实施例1或实施例2中任一项自动驾驶车辆的感知方法。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
Claims (10)
1.一种自动驾驶车辆的感知方法,其特征在于,包括:
获取当前帧的点云数据及当前帧之前的预定帧数的点云数据;
根据所述当前帧的点云数据及所述当前帧之前的预定帧数的点云数据,得到目标点云数据;
根据所述目标点云数据,得到目标检测结果。
2.根据权利要求1所述的自动驾驶车辆的感知方法,其特征在于,所述根据所述当前帧的点云数据及所述当前帧之前的预定帧数的点云数据,得到目标点云数据,包括:
将所述当前帧的点云数据及所述当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据。
3.根据权利要求2所述的自动驾驶车辆的感知方法,其特征在于,所述将所述当前帧的点云数据及所述当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据,包括:
对应地获取当前帧的陀螺仪数据及当前帧之前的预定帧数的陀螺仪数据;
根据所述当前帧的陀螺仪数据及所述当前帧之前的预定帧数的陀螺仪数据对所述当前帧的点云数据和所述当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据。
4.根据权利要求3所述的自动驾驶车辆的感知方法,其特征在于,所述根据所述当前帧的陀螺仪数据及所述当前帧之前的预定帧数的陀螺仪数据对所述当前帧的点云数据和所述当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据,采用如下融合公式:
PF(T)=R(T)×P(T)+R(T-1)×P(T-1)+…+R(T-n)×P(T-n);
其中,PF(T)为所述目标点云数据,R(T)为所述当前帧的陀螺仪数据,P(T)为所述当前帧的点云数据,R(T-1)为当前帧的前一帧的陀螺仪数据,P(T-1)为当前帧的前一帧的点云数据,R(T-n)为当前帧的第前n帧的陀螺仪数据,P(T-n)为当前帧的第前n帧的点云数据。
5.根据权利要求1至4所述的自动驾驶车辆的感知方法,其特征在于,在所述根据所述目标点云数据,得到目标检测结果之后,所述方法还包括:
获取前一帧的检测结果;
根据所述前一帧的检测结果及所述目标检测结果,得到目标跟踪结果。
6.一种自动驾驶车辆的感知装置,其特征在于,包括:
获取模块,用于获取当前帧的点云数据及当前帧之前的预定帧数的点云数据;
计算模块,用于根据所述当前帧的点云数据及所述当前帧之前的预定帧数的点云数据,得到目标点云数据;
检测模块,用于根据所述目标点云数据,得到目标检测结果。
7.根据权利要求6所述的自动驾驶车辆的感知装置,其特征在于,所述计算模块,具体用于:
将所述当前帧的点云数据及所述当前帧之前的预定帧数的点云数据进行融合,得到目标点云数据。
8.根据权利要求6所述的自动驾驶车辆的感知装置,其特征在于,所述获取模块还用于获取前一帧的检测结果;
所述自动驾驶车辆的感知装置还包括跟踪模块,用于根据所述前一帧的检测结果及所述目标检测结果,得到目标跟踪结果。
9.一种电子设备,其特征在于,包括存储器及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行根据权利要求1至5中任一项所述的自动驾驶车辆的感知方法。
10.一种计算机可读存储介质,其特征在于,其存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至5中任一项所述的自动驾驶车辆的感知方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110005198.2A CN112686324A (zh) | 2021-01-04 | 2021-01-04 | 自动驾驶车辆的感知方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110005198.2A CN112686324A (zh) | 2021-01-04 | 2021-01-04 | 自动驾驶车辆的感知方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112686324A true CN112686324A (zh) | 2021-04-20 |
Family
ID=75457119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110005198.2A Pending CN112686324A (zh) | 2021-01-04 | 2021-01-04 | 自动驾驶车辆的感知方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112686324A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117252899A (zh) * | 2023-09-26 | 2023-12-19 | 探维科技(苏州)有限公司 | 目标跟踪方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108152831A (zh) * | 2017-12-06 | 2018-06-12 | 中国农业大学 | 一种激光雷达障碍物识别方法及系统 |
CN110531376A (zh) * | 2019-08-23 | 2019-12-03 | 畅加风行(苏州)智能科技有限公司 | 用于港口无人驾驶车辆的障碍物检测和跟踪方法 |
CN110658531A (zh) * | 2019-08-23 | 2020-01-07 | 畅加风行(苏州)智能科技有限公司 | 一种用于港口自动驾驶车辆的动态目标追踪方法 |
CN110942449A (zh) * | 2019-10-30 | 2020-03-31 | 华南理工大学 | 一种基于激光与视觉融合的车辆检测方法 |
-
2021
- 2021-01-04 CN CN202110005198.2A patent/CN112686324A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108152831A (zh) * | 2017-12-06 | 2018-06-12 | 中国农业大学 | 一种激光雷达障碍物识别方法及系统 |
CN110531376A (zh) * | 2019-08-23 | 2019-12-03 | 畅加风行(苏州)智能科技有限公司 | 用于港口无人驾驶车辆的障碍物检测和跟踪方法 |
CN110658531A (zh) * | 2019-08-23 | 2020-01-07 | 畅加风行(苏州)智能科技有限公司 | 一种用于港口自动驾驶车辆的动态目标追踪方法 |
CN110942449A (zh) * | 2019-10-30 | 2020-03-31 | 华南理工大学 | 一种基于激光与视觉融合的车辆检测方法 |
Non-Patent Citations (1)
Title |
---|
张艳国;李擎;: "基于惯性测量单元的激光雷达点云融合方法", 系统仿真学报, no. 11, 8 November 2018 (2018-11-08) * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117252899A (zh) * | 2023-09-26 | 2023-12-19 | 探维科技(苏州)有限公司 | 目标跟踪方法和装置 |
CN117252899B (zh) * | 2023-09-26 | 2024-05-17 | 探维科技(苏州)有限公司 | 目标跟踪方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10614324B2 (en) | Method and apparatus for identifying static obstacle | |
US11086016B2 (en) | Method and apparatus for tracking obstacle | |
US11506502B2 (en) | Robust localization | |
CN108897836B (zh) | 一种机器人基于语义进行地图构建的方法和装置 | |
CN112639502A (zh) | 机器人位姿估计 | |
JP7149362B2 (ja) | 環境変化を検出するための方法及び装置、計算装置、記憶媒体並びにコンピュータプログラム | |
JP2015148601A (ja) | マッピング、位置特定、及び姿勢補正のためのシステム及び方法 | |
WO2019104866A1 (zh) | 区域轮廓绘制方法、装置及计算机可读存储介质 | |
CN112313536B (zh) | 物体状态获取方法、可移动平台及存储介质 | |
CN118230231B (zh) | 一种无人车的位姿构建方法、装置、电子设备及存储介质 | |
CN115685249A (zh) | 一种障碍物检测方法、装置、电子设备和存储介质 | |
JP2020537800A (ja) | 車両の車線変更検出のためのシステム及び方法 | |
CN113011517A (zh) | 定位结果检测方法、装置、电子设备及存储介质 | |
CN112686324A (zh) | 自动驾驶车辆的感知方法及装置 | |
CN113008244A (zh) | 导航信息的处理方法、装置、电子设备及存储介质 | |
CN112783185B (zh) | 一种基于无人机的预测路径获取方法及装置 | |
CN114861725A (zh) | 一种目标感知跟踪的后处理方法、装置、设备及介质 | |
CN114018269A (zh) | 定位方法、装置、电子设备、存储介质以及自动驾驶车辆 | |
CN116883586B (zh) | 一种基于双目相机的地形语义地图构建方法、系统及产品 | |
CN112797990A (zh) | 一种存储介质、机器人及其导航位图生成方法及装置 | |
CN115393816A (zh) | 车道线生成方法、装置、计算机设备和存储介质 | |
CN113325415B (zh) | 车辆雷达数据和相机数据的融合方法及系统 | |
CN111191734B (zh) | 传感器数据融合方法、装置、设备及存储介质 | |
CN111928863A (zh) | 一种高精地图数据采集方法、装置及系统 | |
Lindenmaier et al. | Semi-Automatic BEV Ground Truth Generation for Automotive Perception Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230412 Address after: 100000 1703, floor 17, building 1, No. 10, Ronghua Middle Road, Beijing Economic and Technological Development Zone, Daxing District, Beijing (Yizhuang group, high-end industrial area of Beijing Pilot Free Trade Zone) Applicant after: NEOLIX TECHNOLOGIES Co.,Ltd. Address before: 101300 room 566, 5th floor, building 6, courtyard 17, Lifu street, Beixiaoying Town, Shunyi District, Beijing Applicant before: Neolithic Huiyi Zhixing Zhichi (Beijing) Technology Co.,Ltd. |
|
TA01 | Transfer of patent application right |