CN117474954A - 目标追踪方法、装置、设备及存储介质 - Google Patents

目标追踪方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN117474954A
CN117474954A CN202311541005.0A CN202311541005A CN117474954A CN 117474954 A CN117474954 A CN 117474954A CN 202311541005 A CN202311541005 A CN 202311541005A CN 117474954 A CN117474954 A CN 117474954A
Authority
CN
China
Prior art keywords
image
target
coordinates
determining
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311541005.0A
Other languages
English (en)
Inventor
潘安
刘京凯
王泽旭
薛晶晶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apollo Zhilian Beijing Technology Co Ltd
Original Assignee
Apollo Zhilian Beijing Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apollo Zhilian Beijing Technology Co Ltd filed Critical Apollo Zhilian Beijing Technology Co Ltd
Priority to CN202311541005.0A priority Critical patent/CN117474954A/zh
Publication of CN117474954A publication Critical patent/CN117474954A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种目标追踪方法、装置、设备及存储介质,涉及图像处理领域,可应用于交通标志追踪、自动驾驶等场景下。具体方案包括:获取第一时刻的第一图像和第二时刻的第二图像,第一时刻在第二时刻之前;根据至少两个预设深度以及第一图像中的第一目标的第一图像坐标,确定第一图像坐标在第二图像中对应的至少两个第二图像坐标,至少两个第二图像坐标与至少两个预设深度一一对应;根据第二图像中的第二目标的第三图像坐标,与至少两个第二图像坐标的连线之间的距离,从第二目标中,确定是否存在第一目标。本公开能够在车速较高和获取图像的帧率不足时实现对目标的追踪。

Description

目标追踪方法、装置、设备及存储介质
技术领域
本公开涉及图像处理领域,具体涉及目标追踪、目标检测等技术领域,可应用于交通标志追踪、自动驾驶等场景下,尤其涉及一种目标追踪方法、装置、设备及存储介质。
背景技术
自动驾驶车辆在巡航行驶的过程中需要遵循道路交通规则,因而需要对道路中的交通标志进行识别和追踪,从而获取到限速指示、分岔路口指示等关键信息。
目前,对于交通标志的追踪,通常使用基于特征匹配的方法,利用目标在连续帧中的特征来进行匹配和跟踪。
但是,当车速较高或获取图像的帧率不足时,连续的两帧图像中同一个目标相差距离较远,导致针对该目标的追踪时的距离阈值匹配失败,从而无法实现对该目标的追踪。
发明内容
本公开提供了一种目标追踪方法、装置、设备及存储介质,能够在车速较高和获取图像的帧率不足时实现对目标的追踪。
根据本公开的第一方面,提供了一种目标追踪方法,包括:
获取第一时刻的第一图像和第二时刻的第二图像,第一时刻在第二时刻之前;根据至少两个预设深度以及第一图像中的第一目标的第一图像坐标,确定第一图像坐标在第二图像中对应的至少两个第二图像坐标,至少两个第二图像坐标与至少两个预设深度一一对应;根据第二图像中的第二目标的第三图像坐标,与至少两个第二图像坐标的连线之间的距离,从第二目标中,确定是否存在第一目标。
根据本公开的第二方面,提供了一种目标追踪装置,该装置包括:获取模块、处理模块和确定模块。
获取模块,用于获取第一时刻的第一图像和第二时刻的第二图像,第一时刻在第二时刻之前。
处理模块,用于根据至少两个预设深度以及第一图像中的第一目标的第一图像坐标,确定第一图像坐标在第二图像中对应的至少两个第二图像坐标,至少两个第二图像坐标与至少两个预设深度一一对应。
确定模块,用于根据第二图像中的第二目标的第三图像坐标,与至少两个第二图像坐标的连线之间的距离,从第二目标中,确定是否存在第一目标。
根据本公开的第三方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面的方法。
根据本公开的第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行根据第一方面的方法。
根据本公开的第五方面,提供了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现根据第一方面的方法。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为本公开实施例提供的目标追踪方法的流程示意图;
图2为本公开实施例提供的目标追踪方法的另一种流程示意图;
图3为本公开实施例提供的目标追踪方法的又一种流程示意图;
图4为本公开实施例提供的目标追踪方法的又一种流程示意图;
图5为本公开实施例提供的目标追踪方法的又一种流程示意图;
图6为本公开实施例提供的目标追踪方法的又一种流程示意图;
图7为本公开实施例提供的目标追踪方法的又一种流程示意图;
图8为本公开实施例提供的目标追踪方法的又一种流程示意图;
图9为本公开实施例提供的目标追踪装置的组成示意图;
图10为本公开实施例提供的电子设备的组成示意图;
图11为本公开提供的在车速过高时第一帧图像和第二帧图像中的限速标志的位置示意图;
图12为本公开提供的目标追踪方法的处理示意图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
应当理解,在本公开各实施例中,字符“/”一般表示前后关联对象是一种“或”的关系。术语“第一”、“第二”等仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。
自动驾驶车辆在巡航行驶的过程中需要遵循道路交通规则,因而需要对道路中的交通标志进行识别和追踪,从而获取到限速指示、分岔路口指示等关键信息。
自动驾驶车辆的硬件组成一般包括:全球定位系统(Global PositioningSystem,GPS):提供全局坐标定位;惯导测量单元(Inertial Measurement Unit,IMU):提供角加速度和线加速度,可以通过积分获取车辆位姿的变化;相机:提供视觉感知能力,包括交通标志牌语义识别追踪,红绿灯检测,障碍物检测等;激光雷达:车辆、行人检测等。软件模块一般包括:高精地图:提供高精度地图服务;定位系统:提供高精度(厘米级)定位服务;感知系统:通过相机、激光雷达、毫米波雷达、超声波雷达等设备结合先进的障碍物检测算法,为自动驾驶车辆提供全方位的环境感知服务;规划控制(planning and control,PNC)模块:包括规划模块和控制模块,主要提供主车避让障碍物、换道决策,路径规划、速度规划服务。
目前,对于交通标志的追踪,通常使用基于特征匹配的方法,利用目标在连续帧中的特征来进行匹配和跟踪。
但是,当车速较高或获取图像的帧率不足时,连续的两帧图像中同一个目标相差距离较远,导致针对该目标的追踪时的距离阈值匹配失败,从而无法实现对该目标的追踪。
示例性地,连续的两帧图像中同一个目标相差距离较远,即,连续的两帧图像中同一个目标在图像中的位置相差较大。
例如,车辆向前行驶时,由于车速过高,前置相机采集的第一帧图像和第二帧图像中的限速标志的位置如图11所示,限速120的限速标志在第一帧图像的中部且在第二帧图像的左上部,同一个限速标志在图像中的位置相差较大。
在此背景技术下,本公开提供了一种目标追踪方法,能够在车速较高和获取图像的帧率不足时实现对目标的追踪。
本公开实施例提供的目标追踪方法的执行主体可以是计算机或服务器,或者还可以是其他具有数据处理能力的电子设备;或者,该方法的执行主体也可以是上述电子设备中的处理器(例如中央处理器(central processing unit,CPU));再或者,该方法的执行主体还可以是上述电子设备中安装的能够实现该方法的功能的应用程序(application,APP);又或者,该方法的执行主体又可以是上述电子设备中具有该方法的功能的功能模块或单元等。在此对该方法的执行主体不作限制。
下面结合附图对该目标追踪方法进行示例性说明。
图1为本公开实施例提供的目标追踪方法的流程示意图。如图1所示,该方法可以包括:
S101、获取第一时刻的第一图像和第二时刻的第二图像。
其中,第一时刻在第二时刻之前。
示例性地,第一图像和第二图像可以由图像采集设备(如照相机、摄像机等)拍摄得到。例如,可以由自动驾驶车辆的相机拍摄得到。
示例性地,第一图像和第二图像可以由同一图像采集设备采集得到,也可以由不同位置的不同图像采集设备采集得到。
例如,相机A第一时刻采集图像1,第二时刻采集图像2,则图像1为第一图像,图像2为第二图像。
又例如,相机A第一时刻采集图像a,相机B第二时刻采集图像b,可以根据相机B相机A的相机内参、相机外参对图像b进行转换,得到与图像A对应的相机内参和相机外参相同的图像b’,则可以将图像a作为第一图像,将图像b’作为第二图像。
示例性地,第一时刻和第二时刻均可以为任意时刻,第一时刻可以理解为第一图像对应的图像帧的时刻,第二时刻可以理解为第二图像对应的图像帧的时刻。
示例地,第一时刻和第二时刻可以为相邻两帧图像对应的时刻,也可以为不相邻的两帧图像对应的时刻。
例如,以第一时刻可以为顺序第一图像对应的时刻为例,第二时刻可以为顺序第二图像对应的时刻,也可以为顺序第三帧图像对应的时刻。
示例性地,以自动驾驶车辆的前置相机为例,车辆向前行驶时,前置相机采集到的第一图像会包括第二图像中的目标,车辆向后倒车时,前置相机采集到的第二图像会包括第一图像中的目标。
示例性地,参考图11,第一目标可以为第一帧图像的三个限速标志中任一一个限速标志。例如,第一目标可以为左侧限速120的限速标志,也可以为中间限速100或右侧限速100的限速标志。
S102、根据至少两个预设深度以及第一图像中的第一目标的第一图像坐标,确定第一图像坐标在第二图像中对应的至少两个第二图像坐标。
其中,至少两个第二图像坐标与至少两个预设深度一一对应。
示例性地,第一图像中的目标可以为交通标志,可以通过图像检测算法对第一图像中的目标进行检测,并使用检测框标注出来。
示例性地,第一图像坐标可以为第一目标对应的检测框中的任意点在第一图像中的坐标。例如,第一图像坐标可以为第一目标对应的检测框的中心点在第一图像中的坐标。
示例性地,预设深度可以根据相机可视范围和经验参数确定得到。
可选地,预设深度的取值不小于10m且不大于200m。例如,预设深度可以为10m、50m、100m等。
可选地,至少两个预设深度之间的差值不小于10m且不大于100m。
示例性地,第二图像坐标包括的坐标点的数量与预设深度的数量相同且一一对应。例如,预设深度包括d1和d2,则第二图像坐标包括与d1对应的坐标点a、与d2对应的坐标点b。
示例性地,可以根据至少两个预设深度,对第一图像坐标进行坐标转换,得到第一图像坐标在第二图像中对应的至少两个第二图像坐标。
S103、根据第二图像中的第二目标的第三图像坐标,与至少两个第二图像坐标的连线之间的距离,从第二目标中,确定是否存在第一目标。
示例性地,第二图像中的目标可以为交通标志,交通标志可以通过图像检测算法对第二图像中的目标进行检测,并使用检测框标注出来。
示例性地,参考图11,以第一目标为第一帧图像中左侧限速120的限速标志为例,则第二目标包括第二帧图像中左侧限速120的限速标志、中间限速100的限速标志、右侧限速100的限速标志。
示例性地,第三图像坐标可以为在第二目标中的与第一图像坐标在第一目标中的位置对应的位置的坐标。例如,当第一图像坐标为第一目标对应的检测框的中心点在第一图像中的坐标时,第三图像坐标可以为第二目标对应的检测框的中心点在第二图像中的坐标。
示例性地,图12为本公开提供的目标追踪方法的处理示意图。如图12所示,第一图像为第一帧图像,第二图像为第二帧图像,第二帧图像中的限速120的限速标志、限速100的限速标志、限速80的限速标志均为第二目标,虚线为限速标志的检测框,当第一帧图像中的限速120的限速标志为第一目标时,以第一图像坐标对应的点为第一目标对应的检测框的左下角点O为例,则第三图像坐标对应的点为第二目标对应的检测框的左下角点,即第三图像坐标对应的点为图12中第二帧图像中的点O1、点O2、点O3。根据两个预设深度,确定出点0在第二图像中对应的点P和点Q,点P和点Q在第二图像中的坐标为第一图像坐标对应的两个第二图像坐标。
示例性地,将至少两个第二图像坐标对应的点以线条连接,即可得到第二图像坐标的连线。
示例性地,参考图12,点P和点Q的连线即为第二图像坐标的连线。
示例地,第三图像坐标与第二图像坐标的连线之间的距离,即为第三图像坐标与第二图像坐标的连线所在的直线之间垂直距离。
示例性地,参考图12,点O1、点O2、点O3到线段PQ所在的直线的垂直距离即为第三图像坐标与第二图像坐标的连线之间的距离。
示例性地,可以在第三图像坐标与第二图像坐标的连线之间的距离小于预设的固定值时,确定第二目标中确定存在第一目标。还可以将第三图像坐标与第二图像坐标的连线之间的距离最小的第二目标确定为第一目标,以实现对第一目标的追踪。
示例性地,可以将点O1对应的第二目标确定为第一目标。
本公开实施例通过获取第一时刻的第一图像和第二时刻的第二图像,根据至少两个预设深度以及第一图像中的第一目标的第一图像坐标,确定第一图像坐标在第二图像中对应的至少两个第二图像坐标,根据第二图像中的第二目标的第三图像坐标,与至少两个第二图像坐标的连线之间的距离,从第二目标中,确定是否存在第一目标,可以准确地实现对第一目标的追踪,可以在第一图像与第二图像中的同一目标的位置相差较大的情况下实现对第一目标的追踪。
图2为本公开实施例提供的目标追踪方法的另一种流程示意图。如图2所示,在根据至少两个预设深度以及第一图像中的第一目标的第一图像坐标,确定第一图像坐标在第二图像中对应的至少两个第二图像坐标之前,该方法还可以包括:
S201、确定第一图像中的第一目标的第一特征点。
其中,第一特征点为第一目标的检测框上的点,第一目标的检测框用于指示第一目标在第一图像中的位置。
示例性地,第一特征点可以为一个。
S202、将第一特征点的坐标作为第一图像坐标。
示例性地,可以通过图像检测算法对第一图像中的目标进行检测,并使用检测框标注出来。第一特征点可以为第一目标对应的检测框上的任一一点在第一图像中的坐标。例如,第一特征点可以为第一目标对应的检测框的左上角点。
本实施例通过将第一目标的检测框上的任一一点确定为第一特征点,无需使用传统的特征点计算方法来得到特征点,将第一特征点作为第一图像坐标,可以快速准确地得到第一目标的第一图像坐标。
图3为本公开实施例提供的目标追踪方法的又一种流程示意图。如图3所示,在根据第二图像中的第二目标的第三图像坐标,与至少两个第二图像坐标的连线之间的距离,从第二目标中,确定是否存在第一目标之前,该方法还包括:
S301、确定第二图像中的第二目标的第二特征点。
其中,第二特征点为第二目标的检测框上的点,第二目标的检测框用于指示第二目标在第二图像中的位置,第二特征点与第一特征点在目标上的位置对应。
S302、将第二特征点的坐标作为第三图像坐标。
示例性地,可以通过图像检测算法对第二图像中的目标进行检测,并使用检测框标注出来。
示例性地,第二特征点可以在第二目标中的与第一特征点在第一目标中的位置对应的位置。例如,当第一特征点为第一目标对应的检测框的左上角点时,第二特征点可以为第二目标对应的检测框的左上角点。
本实施例通过将第二目标的检测框上的与第一特征点在第一目标的检测框上对应的点确定为第二特征点,无需使用传统的特征点计算方法来得到特征点,将第二特征点作为第三图像坐标,可以快速准确地得到第二目标的第三图像坐标。
一些可能的实施方式中,第一特征点包括多个,第二特征点包括多个。
示例性地,第一特征点可以为第一目标的检测框的左上角点和右下角点,第二特征点可以为第二目标的检测框的左上角点和右下角点,对第一特征点和第二特征点的位置不作限制。
示例性地,在第二图像中的某一第二目标显示不完整时,该第二目标对应的第二特征点只有部分是可信的,当可信的第二特征点均与对应的第二图像坐标的连线之间的距离最小时,仍可以将该第二目标确定为第一目标。
本实施例通过设置多个第一特征点和多个第二特征点,可以通过多个第二特征点共同实现对第一目标的追踪,提高对第一目标追踪的准确性。
图4为本公开实施例提供的目标追踪方法的又一种流程示意图。如图4所示,根据至少两个预设深度以及第一图像中的第一目标的第一图像坐标,确定第一图像坐标在第二图像中对应的至少两个第二图像坐标,包括:
S401、根据至少两个预设深度以及第一图像中的第一目标的第一图像坐标,确定第一目标在第一时刻的第一世界坐标。
其中,第一世界坐标与预设深度一一对应。
示例性地,可以通过相机内参、相机外参以及至少两个预设深度将第一图像坐标转换至世界坐标系下,得到第一目标在第一时刻的第一世界坐标。
需要说明的是,上述对于通过相机内参、相机外参对第一图像坐标转换得到第一世界坐标的举例,仅为一种示例性的说明,在实际应用中,还可以其他相关技术实现对第一图像坐标的转换得到第一世界坐标,此处不作限制。
示例性地,第一世界坐标包括的坐标点的数量与预设深度的数量相同且一一对应。例如,预设深度包括d1和d2,则第一世界坐标包括与d1对应的坐标点1、与d2对应的坐标点2。
S402、根据第一图像与第二图像之间的变换矩阵、第一世界坐标,确定第一目标在第二时刻的第二世界坐标。
其中,第二世界坐标与第一世界坐标一一对应。
示例性地,可以通过自动驾驶车辆的IMU模块得到第一时刻车辆的旋转向量和平移向量,作为第一图像的旋转向量和平移向量,通过自动驾驶车辆的IMU模块得到第二时刻车辆的旋转向量和平移向量,作为第二图像的旋转向量和平移向量,计算第二图像的平移向量与第一图像的平移向量之差,得到第一图像与第二图像之间的平移变换矩阵,计算第一图像的旋转向量的逆矩阵与第二图像的旋转向量的乘积,得到第一图像与第二图像之间的旋转变换矩阵。
示例性地,可以计算第一世界坐标与旋转变换矩阵和平移变换矩阵的组合矩阵的乘积,得到的结果即为第二世界坐标。
可选地,以第一世界坐标为[XT0,YT0,ZT0]为例,第二世界坐标可以通过下述公式(1)计算得到:
[XT1,YT1,ZT1]=[ΔR,ΔT]*[XT0,YT0,ZT0] 公式(1)
公式(1)中,[XT1,YT1,ZT1]表示第二世界坐标,R表示第一图像与第二图像之间的旋转变换矩阵,ΔT表示第一图像与第二图像之间的平移变换矩阵,[ΔR,ΔT]表示旋转变换矩阵和平移变换矩阵的组合矩阵。
示例性地,第二世界坐标包括的坐标点的数量与第一世界坐标包括的坐标点的数量相同且一一对应。例如,第一世界坐标包括坐标点1和坐标点2,则第二世界坐标包括与坐标点1对应的坐标点1’、与坐标点2对应的坐标点2’。
S403、根据第二世界坐标和至少两个预设深度,确定第二世界坐标在第二图像中的至少两个第二图像坐标。
其中,第二图像坐标与第二世界坐标一一对应。
示例性地,可以通过相机内参、相机外参以及至少两个预设深度将第二世界坐标转换至第二图像中,得到第二世界坐标在第二图像中的第二图像坐标。
需要说明的是,上述对于通过相机内参、相机外参对第二世界坐标转换得到第二图像坐标的举例,仅为一种示例性的说明,在实际应用中,还可以其他相关技术实现对第二世界坐标的转换得到第二图像坐标,此处不作限制。
示例性地,第二图像坐标包括的坐标点的数量与第二世界坐标包括的坐标点的数量相同且一一对应。例如,第二世界坐标包括坐标点1’和坐标点2’,则第二世界坐标包括与坐标点1’对应的坐标点a、与坐标点2’对应的坐标点b。
本实施例通过根据至少两个预设深度和第一图像坐标确定第一目标在第一时刻的第一世界坐标,根据第一图像与第二图像之间的变换矩阵、第一世界坐标,确定第一目标在第二时刻的第二世界坐标,根据第二世界坐标和至少两个预设深度,可以准确地确定第二世界坐标在第二图像中的至少两个第二图像坐标。
图5为本公开实施例提供的目标追踪方法的又一种流程示意图。如图5所示,根据至少两个预设深度以及第一图像中的第一目标的第一图像坐标,确定第一目标在第一时刻的第一世界坐标,包括:
S501、根据至少两个预设深度、第一图像中的第一目标的第一图像坐标和相机内参,确定第一目标在第一时刻的第一相机坐标。
其中,第一相机坐标与预设深度一一对应。
示例性地,相机内参可以包括相机主光轴在图像平面上的坐标,以及相机在x和y方向上的焦距。可以根据相机内参,将第一图像坐标转换为归一化坐标;再根据至少两个预设深度和归一化坐标,得到第一相机坐标。
可选地,归一化坐标(x,y)可以通过下述公式(2)、公式(3)得到:
x=(u-cx)/fx 公式(2)
y=(v-cy)/fy 公式(3)
其中,(u,v)表示第一图像坐标,(cx,cy)表示相机主光轴在图像平面上的坐标,fx表示相机在x方向上的焦距,fy表示相机在y方向上的焦距。
可选地,第一相机坐标(Xc,Yc,Zc)可以通过以下公式(4)、公式(5)、公式(6)得到:
Xc=x*di 公式(4)
Yc=y*di 公式(5)
Zc=di 公式(6)
其中,di表示第i个预设深度。
S502、根据第一相机坐标和相机外参,确定第一目标在第一时刻的第一世界坐标。
示例性地,相机外参可以包括相机的旋转矩阵和平移矩阵,可以根据相机外参和第一相机坐标,得到第一世界坐标。
可选地,第一世界坐标[XT0,YT0,ZT0]可以通过下述公式(7)得到:
[XT0,YT0,ZT0,1]=[R,T]*[Xc,Yc,Zc,1] 公式(7)
其中,[R,T]表示旋转矩阵和平移向量的组合矩阵。
本实施例通过根据至少两个预设深度、第一图像中的第一目标的第一图像坐标和相机内参,确定第一目标在第一时刻的第一相机坐标,根据第一相机坐标和相机外参,可以准确地确定第一目标在第一时刻的第一世界坐标。
图6为本公开实施例提供的目标追踪方法的又一种流程示意图。如图6所示,根据第二世界坐标和至少两个预设深度,确定第二世界坐标在第二图像中的至少两个第二图像坐标,包括:
S601、根据第二世界坐标和相机外参,确定第二世界坐标对应的第二相机坐标。
其中,第二相机坐标与第二世界坐标一一对应。
S602、根据第二相机坐标、至少两个预设深度和相机内参,确定第二世界坐标在第二图像中的至少两个第二图像坐标。
示例性地,S601和S602类似于S502和S501的逆运算,此处不再赘述。
本实施例通过根据第二世界坐标和相机外参,确定第二世界坐标对应的第二相机坐标,根据第二相机坐标、至少两个预设深度和相机内参,可以准确地确定第二世界坐标在第二图像中的第二图像坐标。
图7为本公开实施例提供的目标追踪方法的又一种流程示意图。如图7所示,根据第一图像与第二图像之间的变换矩阵、第一世界坐标,确定第一目标在第二时刻的第二世界坐标,包括:
S701、将第一图像和第二图像输入至预先训练的预测模型,得到第一图像与第二图像之间的变换矩阵。
示例性地,预测模型的输入为两个图像,输出为该两个图像之间的变换矩阵。
示例地,变换矩阵可以包括平移变换矩阵和旋转变换矩阵。预测模型可以输出平移变换矩阵,和/或,旋转变换矩阵。
S702、根据变换矩阵、第一世界坐标,确定第一目标在第二时刻的第二世界坐标。
示例性地,S702的具体实现方式与S402类似,此处不再赘述。
本实施例通过将第一图像和第二图像输入至预先训练的预测模型,可以快速地得到第一图像与第二图像之间的变换矩阵,根据变换矩阵、第一世界坐标,从而可以快速地确定第一目标在第二时刻的第二世界坐标。
图8为本公开实施例提供的目标追踪方法的又一种流程示意图。如图8所示,根据第二图像中的第二目标的第三图像坐标,与至少两个第二图像坐标的连线之间的距离,从第二目标中,确定是否存在第一目标,包括:
S801、确定第二图像中的第二目标的第三图像坐标,与至少两个第二图像坐标的连线之间的距离。
示例性地,第二图像坐标在第二图像上对应的点至少有两个,将这两个点连接,即可得到第二图像坐标的连线。
示例地,第三图像坐标与第二图像坐标的连线之间的距离,即为第三图像坐标与第二图像坐标的连线所在的直线之间垂直距离。
S802、根据预设阈值和距离,从第二目标中,确定是否存在第一目标。
示例性地,对预设阈值的大小不做限制。
示例性地,可以将对应的距离小于或等于预设阈值的第二目标确定为第一目标,实现对第一目标的追踪。
本实施例通过确定第二图像中的第二目标的第三图像坐标,与第二图像坐标的连线之间的距离,根据预设阈值和距离,可以更准确地从第二目标中确定第一目标。
上述主要从方法的角度对本公开实施例提供的方案进行了介绍。为了实现上述功能,其包含了执行各个功能相应的硬件结构和/或软件模块。本领域技术目标应该很容易意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,本公开能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术目标可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本公开的范围。
在示例性实施例中,本公开实施例还提供一种目标追踪装置,可以用于实现如前述实施例的目标追踪方法。
图9为本公开实施例提供的目标追踪装置的组成示意图。如图9所示,该装置可以包括:获取模块901、处理模块902和确定模块903。
获取模块901,用于获取第一时刻的第一图像和第二时刻的第二图像,第一时刻在第二时刻之前。
处理模块902,用于根据至少两个预设深度以及第一图像中的第一目标的第一图像坐标,确定第一图像坐标在第二图像中对应的至少两个第二图像坐标,至少两个第二图像坐标与至少两个预设深度一一对应。
确定模块903,用于根据第二图像中的第二目标的第三图像坐标,与至少两个第二图像坐标的连线之间的距离,从第二目标中,确定是否存在第一目标。
一些可能的实施例中,处理模块902,还用于在根据至少两个预设深度以及第一图像中的第一目标的第一图像坐标,确定第一图像坐标在第二图像中对应的至少两个第二图像坐标之前,确定第一图像中的第一目标的第一特征点,第一特征点为第一目标的检测框上的点,第一目标的检测框用于指示第一目标在第一图像中的位置;将第一特征点的坐标作为第一图像坐标。
一些可能的实施例中,处理模块902,还用于在根据第二图像中的第二目标的第三图像坐标,与至少两个第二图像坐标的连线之间的距离,从第二目标中,确定是否存在第一目标之前,确定第二图像中的第二目标的第二特征点,第二特征点为第二目标的检测框上的点,第二目标的检测框用于指示第二目标在第二图像中的位置,第二特征点与第一特征点在目标上的位置对应;将第二特征点的坐标作为第三图像坐标。
一些可能的实施例中,第一特征点包括多个,第二特征点包括多个。
一些可能的实施例中,处理模块902,具体用于:
根据至少两个预设深度以及第一图像中的第一目标的第一图像坐标,确定第一目标在第一时刻的第一世界坐标,第一世界坐标与预设深度一一对应;根据第一图像与第二图像之间的变换矩阵、第一世界坐标,确定第一目标在第二时刻的第二世界坐标,第二世界坐标与第一世界坐标一一对应;根据第二世界坐标和至少两个预设深度,确定第二世界坐标在第二图像中的至少两个第二图像坐标,第二图像坐标与第二世界坐标一一对应。
一些可能的实施例中,处理模块902,具体用于:
根据至少两个预设深度、第一图像中的第一目标的第一图像坐标和相机内参,确定第一目标在第一时刻的第一相机坐标,第一相机坐标与预设深度一一对应;根据第一相机坐标和相机外参,确定第一目标在第一时刻的第一世界坐标。
一些可能的实施例中,处理模块902,具体用于:
根据第二世界坐标和相机外参,确定第二世界坐标对应的第二相机坐标,第二相机坐标与第二世界坐标一一对应;根据第二相机坐标、至少两个预设深度和相机内参,确定第二世界坐标在第二图像中的至少两个第二图像坐标。
一些可能的实施例中,处理模块902,具体用于:
将第一图像和第二图像输入至预先训练的预测模型,得到第一图像与第二图像之间的变换矩阵;根据变换矩阵、第一世界坐标,确定第一目标在第二时刻的第二世界坐标。
一些可能的实施例中,确定模块903,具体用于:
确定第二图像中的第二目标的第三图像坐标,与至少两个第二图像坐标的连线之间的距离;根据预设阈值和距离,从第二目标中,确定是否存在第一目标。
需要说明的是,图9中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。例如,还可以将两个或两个以上的功能集成在一个处理模块中。本公开实施例对此不作限制。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
示例性实施例中,电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如以上实施例所述的方法。该电子设备可以是上述计算机或服务器。
示例性实施例中,可读存储介质可以是存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使计算机执行根据以上实施例所述的方法。
示例性实施例中,计算机程序产品包括计算机程序,所述计算机程序在被处理器执行时实现根据以上实施例所述的方法。
图10示出了可以用来实施本公开的实施例的示例电子设备1000的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,电子设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储电子设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
电子设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许电子设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如目标追踪方法。例如,在一些实施例中,目标追踪方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到电子设备1000上。当计算机程序加载到RAM 1003并由计算单元1001执行时,可以执行上文描述的目标追踪方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行目标追踪方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)或者包括中间件部件的计算系统(例如,应用服务器)或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)或者包括这种后台部件、中间件部件或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (21)

1.一种目标追踪方法,所述方法包括:
获取第一时刻的第一图像和第二时刻的第二图像,所述第一时刻在所述第二时刻之前;
根据至少两个预设深度以及所述第一图像中的第一目标的第一图像坐标,确定所述第一图像坐标在所述第二图像中对应的至少两个第二图像坐标,所述至少两个第二图像坐标与所述至少两个预设深度一一对应;
根据所述第二图像中的第二目标的第三图像坐标,与所述至少两个第二图像坐标的连线之间的距离,从所述第二目标中,确定是否存在所述第一目标。
2.根据权利要求1所述的方法,在所述根据至少两个预设深度以及所述第一图像中的第一目标的第一图像坐标,确定所述第一图像坐标在所述第二图像中对应的至少两个第二图像坐标之前,所述方法还包括:
确定所述第一图像中的第一目标的第一特征点,所述第一特征点为所述第一目标的检测框上的点,所述第一目标的检测框用于指示第一目标在所述第一图像中的位置;
将所述第一特征点的坐标作为所述第一图像坐标。
3.根据权利要求2所述的方法,在所述根据所述第二图像中的第二目标的第三图像坐标,与所述至少两个第二图像坐标的连线之间的距离,从所述第二目标中,确定是否存在所述第一目标之前,所述方法还包括:
确定所述第二图像中的第二目标的第二特征点,所述第二特征点为所述第二目标的检测框上的点,所述第二目标的检测框用于指示第二目标在所述第二图像中的位置,所述第二特征点与所述第一特征点在目标上的位置对应;
将所述第二特征点的坐标作为所述第三图像坐标。
4.根据权利要求3所述的方法,所述第一特征点包括多个,所述第二特征点包括多个。
5.根据权利要求1-4任一项所述的方法,所述根据至少两个预设深度以及所述第一图像中的第一目标的第一图像坐标,确定所述第一图像坐标在所述第二图像中对应的至少两个第二图像坐标,包括:
根据所述至少两个预设深度以及所述第一图像中的第一目标的第一图像坐标,确定所述第一目标在所述第一时刻的第一世界坐标,所述第一世界坐标与所述预设深度一一对应;
根据所述第一图像与所述第二图像之间的变换矩阵、所述第一世界坐标,确定所述第一目标在所述第二时刻的第二世界坐标,所述第二世界坐标与所述第一世界坐标一一对应;
根据所述第二世界坐标和所述至少两个预设深度,确定所述第二世界坐标在所述第二图像中的至少两个第二图像坐标,所述第二图像坐标与所述第二世界坐标一一对应。
6.根据权利要求5所述的方法,所述根据至少两个预设深度以及所述第一图像中的第一目标的第一图像坐标,确定所述第一目标在所述第一时刻的第一世界坐标,包括:
根据至少两个所述预设深度、所述第一图像中的第一目标的第一图像坐标和所述相机内参,确定所述第一目标在所述第一时刻的第一相机坐标,所述第一相机坐标与所述预设深度一一对应;
根据所述第一相机坐标和所述相机外参,确定所述第一目标在所述第一时刻的第一世界坐标。
7.根据权利要求5或6所述的方法,所述根据所述第二世界坐标和所述至少两个预设深度,确定所述第二世界坐标在所述第二图像中的至少两个第二图像坐标,包括:
根据所述第二世界坐标和所述相机外参,确定所述第二世界坐标对应的第二相机坐标,所述第二相机坐标与所述第二世界坐标一一对应;
根据所述第二相机坐标、所述至少两个预设深度和所述相机内参,确定所述第二世界坐标在所述第二图像中的至少两个第二图像坐标。
8.根据权利要求5-7任一项所述的方法,所述根据所述第一图像与所述第二图像之间的变换矩阵、所述第一世界坐标,确定所述第一目标在所述第二时刻的第二世界坐标,包括:
将所述第一图像和第二图像输入至预先训练的预测模型,得到所述第一图像与所述第二图像之间的变换矩阵;
根据所述变换矩阵、所述第一世界坐标,确定所述第一目标在所述第二时刻的第二世界坐标。
9.根据权利要求1-8任一项所述的方法,根据所述第二图像中的第二目标的第三图像坐标,与所述至少两个第二图像坐标的连线之间的距离,从所述第二目标中,确定是否存在所述第一目标,包括:
确定所述第二图像中的第二目标的第三图像坐标,与所述至少两个第二图像坐标的连线之间的距离;
根据预设阈值和所述距离,从所述第二目标中,确定是否存在所述第一目标。
10.一种目标追踪装置,所述装置包括:
获取模块,用于获取第一时刻的第一图像和第二时刻的第二图像,所述第一时刻在所述第二时刻之前;
处理模块,用于根据至少两个预设深度以及所述第一图像中的第一目标的第一图像坐标,确定所述第一图像坐标在所述第二图像中对应的至少两个第二图像坐标,所述至少两个第二图像坐标与所述至少两个预设深度一一对应;
确定模块,用于根据所述第二图像中的第二目标的第三图像坐标,与所述至少两个第二图像坐标的连线之间的距离,从所述第二目标中,确定是否存在所述第一目标。
11.根据权利要求10所述的装置,所述处理模块,还用于:
在所述根据至少两个预设深度以及所述第一图像中的第一目标的第一图像坐标,确定所述第一图像坐标在所述第二图像中对应的至少两个第二图像坐标之前,确定所述第一图像中的第一目标的第一特征点,所述第一特征点为所述第一目标的检测框上的点,所述第一目标的检测框用于指示第一目标在所述第一图像中的位置;将所述第一特征点的坐标作为所述第一图像坐标。
12.根据权利要求11所述的装置,所述处理模块,还用于:
在所述根据所述第二图像中的第二目标的第三图像坐标,与所述至少两个第二图像坐标的连线之间的距离,从所述第二目标中,确定是否存在所述第一目标之前,确定所述第二图像中的第二目标的第二特征点,所述第二特征点为所述第二目标的检测框上的点,所述第二目标的检测框用于指示第二目标在所述第二图像中的位置,所述第二特征点与所述第一特征点在目标上的位置对应;将所述第二特征点的坐标作为所述第三图像坐标。
13.根据权利要求12所述的装置,所述第一特征点包括多个,所述第二特征点包括多个。
14.根据权利要求10-13任一项所述的装置,所述处理模块,具体用于:
根据所述至少两个预设深度以及所述第一图像中的第一目标的第一图像坐标,确定所述第一目标在所述第一时刻的第一世界坐标,所述第一世界坐标与所述预设深度一一对应;
根据所述第一图像与所述第二图像之间的变换矩阵、所述第一世界坐标,确定所述第一目标在所述第二时刻的第二世界坐标,所述第二世界坐标与所述第一世界坐标一一对应;
根据所述第二世界坐标和所述至少两个预设深度,确定所述第二世界坐标在所述第二图像中的至少两个第二图像坐标,所述第二图像坐标与所述第二世界坐标一一对应。
15.根据权利要求14所述的方法,所述处理模块,具体用于:
根据至少两个所述预设深度、所述第一图像中的第一目标的第一图像坐标和所述相机内参,确定所述第一目标在所述第一时刻的第一相机坐标,所述第一相机坐标与所述预设深度一一对应;
根据所述第一相机坐标和所述相机外参,确定所述第一目标在所述第一时刻的第一世界坐标。
16.根据权利要求14或15所述的方法,所述处理模块,具体用于:
根据所述第二世界坐标和所述相机外参,确定所述第二世界坐标对应的第二相机坐标,所述第二相机坐标与所述第二世界坐标一一对应;
根据所述第二相机坐标、所述至少两个预设深度和所述相机内参,确定所述第二世界坐标在所述第二图像中的至少两个第二图像坐标。
17.根据权利要求14-16任一项所述的方法,所述处理模块,具体用于:
将所述第一图像和第二图像输入至预先训练的预测模型,得到所述第一图像与所述第二图像之间的变换矩阵;
根据所述变换矩阵、所述第一世界坐标,确定所述第一目标在所述第二时刻的第二世界坐标。
18.根据权利要求10-17任一项所述的方法,所述确定模块,具体用于:
确定所述第二图像中的第二目标的第三图像坐标,与所述至少两个第二图像坐标的连线之间的距离;
根据预设阈值和所述距离,从所述第二目标中,确定是否存在所述第一目标。
19.一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;
其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9任一项所述的方法。
20.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使计算机执行根据权利要求1-9任一项所述的方法。
21.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-9任一项所述的方法。
CN202311541005.0A 2023-11-17 2023-11-17 目标追踪方法、装置、设备及存储介质 Pending CN117474954A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311541005.0A CN117474954A (zh) 2023-11-17 2023-11-17 目标追踪方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311541005.0A CN117474954A (zh) 2023-11-17 2023-11-17 目标追踪方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN117474954A true CN117474954A (zh) 2024-01-30

Family

ID=89636168

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311541005.0A Pending CN117474954A (zh) 2023-11-17 2023-11-17 目标追踪方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN117474954A (zh)

Similar Documents

Publication Publication Date Title
US10437252B1 (en) High-precision multi-layer visual and semantic map for autonomous driving
US10794710B1 (en) High-precision multi-layer visual and semantic map by autonomous units
CN113377888B (zh) 训练目标检测模型和检测目标的方法
CN113706704B (zh) 基于高精地图规划路线的方法、设备以及自动驾驶车辆
CN113887400B (zh) 障碍物检测方法、模型训练方法、装置及自动驾驶车辆
CN112184914A (zh) 目标对象三维位置的确定方法、装置和路侧设备
CN114140759A (zh) 高精地图车道线位置确定方法、装置及自动驾驶车辆
EP4194807A1 (en) High-precision map construction method and apparatus, electronic device, and storage medium
CN114663529B (zh) 一种外参确定方法、装置、电子设备及存储介质
CN114815851A (zh) 机器人跟随方法、装置、电子设备以及存储介质
CN113177980B (zh) 用于自动驾驶的目标对象速度确定方法、装置及电子设备
CN114528941A (zh) 传感器数据融合方法、装置、电子设备及存储介质
CN111612851B (zh) 用于标定相机的方法、装置、设备以及存储介质
CN113932796A (zh) 高精地图车道线生成方法、装置和电子设备
CN113091737A (zh) 一种车路协同定位方法、装置、自动驾驶车辆及路侧设备
US20230169680A1 (en) Beijing baidu netcom science technology co., ltd.
CN115760827A (zh) 点云数据的检测方法、装置、设备以及存储介质
CN115773759A (zh) 自主移动机器人的室内定位方法、装置、设备及存储介质
CN115790621A (zh) 高精地图更新方法、装置及电子设备
CN116129422A (zh) 单目3d目标检测方法、装置、电子设备和存储介质
CN117474954A (zh) 目标追踪方法、装置、设备及存储介质
CN114170300A (zh) 高精地图点云位姿优化方法、装置、设备及介质
EP4134843A2 (en) Fusion and association method and apparatus for traffic objects in driving environment, and edge computing device
CN115294234B (zh) 图像的生成方法、装置、电子设备和存储介质
CN114612544B (zh) 图像处理方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination