CN112991401B - 车辆运行轨迹追踪方法、装置、电子设备和存储介质 - Google Patents

车辆运行轨迹追踪方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN112991401B
CN112991401B CN202110076276.8A CN202110076276A CN112991401B CN 112991401 B CN112991401 B CN 112991401B CN 202110076276 A CN202110076276 A CN 202110076276A CN 112991401 B CN112991401 B CN 112991401B
Authority
CN
China
Prior art keywords
camera
image
target vehicle
vehicle
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110076276.8A
Other languages
English (en)
Other versions
CN112991401A (zh
Inventor
陈海波
李珂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenlan Robot Shanghai Co ltd
Original Assignee
Deep Blue Technology Shanghai Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deep Blue Technology Shanghai Co Ltd filed Critical Deep Blue Technology Shanghai Co Ltd
Priority to CN202110076276.8A priority Critical patent/CN112991401B/zh
Publication of CN112991401A publication Critical patent/CN112991401A/zh
Application granted granted Critical
Publication of CN112991401B publication Critical patent/CN112991401B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例涉及图像处理技术领域,提供了一种车辆运行轨迹追踪方法、装置、电子设备和存储介质,所述方法包括:对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别,得到所述第一摄像头和所述第二摄像头在同一时刻拍摄的包含所述目标车辆的第一图像和第二图像;基于所述第一摄像头和所述第二摄像头在参考坐标系下的坐标和方向角,以及所述目标车辆分别在所述第一图像和所述第二图像中的位置信息,确定各个时刻下所述目标车辆在参考坐标系中的坐标,得到所述目标车辆的运行轨迹。本申请提供的车辆运行轨迹追踪方法、装置、电子设备和存储介质,提高了同一目标车辆的跨相机跟踪的准确性,以及目标车辆定位的准确性。

Description

车辆运行轨迹追踪方法、装置、电子设备和存储介质
技术领域
本申请涉及图像处理技术领域,尤其涉及一种车辆运行轨迹追踪方法、装置、电子设备和存储介质。
背景技术
目标车辆识别和跟踪是视频监控、智能交通和城市计算等领域的重点研究内容。例如,在交通事故发生后,可以对肇事车辆进行锁定并跟踪其运动轨迹,辅助交警对交通事故进行处理。
然而,常规的车辆轨迹追踪通常使用单个摄像机对目标车辆进行目标识别和目标跟踪,在车流量较大的情况下,很难在不借助人工的情况下连续追踪车辆运行轨迹,且该方法对目标车辆的轨迹定位精度不高,难以满足车流量较大情况下的目标车辆运行轨迹的精确追踪。
发明内容
本申请提供一种车辆运行轨迹追踪方法、装置、电子设备和存储介质,以实现目标车辆运行轨迹的精确追踪。
本申请提供一种车辆运行轨迹追踪方法,包括:
对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别,得到所述第一摄像头和所述第二摄像头在同一时刻拍摄的包含所述目标车辆的第一图像和第二图像;
基于所述第一摄像头和所述第二摄像头在参考坐标系下的坐标和方向角,以及所述目标车辆分别在所述第一图像和所述第二图像中的位置信息,确定各个时刻下所述目标车辆在参考坐标系中的坐标,得到所述目标车辆的运行轨迹。
根据本申请提供的一种车辆运行轨迹追踪方法,所述基于所述第一摄像头和所述第二摄像头在参考坐标系下的坐标和方向角,以及所述目标车辆分别在所述第一图像和所述第二图像中的位置信息,确定各个时刻下所述目标车辆在参考坐标系中的坐标,具体包括:
基于所述第一摄像头和所述第二摄像头在参考坐标系下的坐标和方向角,以及对应图像中所述目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角,确定各个时刻下所述目标车辆在参考坐标系中的坐标。
根据本申请提供的一种车辆运行轨迹追踪方法,所述目标车辆在参考坐标系中的坐标是采用如下公式确定的:
Figure BDA0002907752210000021
γ1=tan(β+β1)
γ2=tan(π-α1-α)
其中,(x1,y1)和(x2,y2)为所述第一摄像头和所述第二摄像头在参考坐标系下的坐标,β和α分别为所述第一摄像头和所述第二摄像头的方向角,(xt,yt)为所述目标车辆在参考坐标系中的坐标,β1和α1分别为所述第一图像和所述第二图像中所述目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角。
根据本申请提供的一种车辆运行轨迹追踪方法,所述对应图像中所述目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角,是基于如下步骤确定的:
基于对应摄像头的焦距,以及对应图像中所述目标车辆与图像中轴线之间的距离,计算所述目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角。
根据本申请提供的一种车辆运行轨迹追踪方法,所述第一摄像头和所述第二摄像头的焦距是基于如下步骤确定的:
分别通过所述第一摄像头和所述第二摄像头对标定物进行拍摄,得到第一标定图像和第二标定图像;
基于所述标定物到所述第一摄像头和所述第二摄像头之间连线的距离、所述标定物分别在所述第一标定图像和所述第二标定图像中距离图像中轴线的距离,以及所述第一摄像头和所述第二摄像头之间的距离,确定所述第一摄像头和所述第二摄像头的焦距。
根据本申请提供的一种车辆运行轨迹追踪方法,所述第一摄像头和所述第二摄像头的焦距是采用如下公式确定的:
Figure BDA0002907752210000031
其中,f为所述第一摄像头和所述第二摄像头的焦距,Z为所述标定物到所述第一摄像头和所述第二摄像头之间连线的距离,x1和xr分别为所述标定物在所述第一标定图像和所述第二标定图像中距离图像中轴线的距离,b为所述第一摄像头和所述第二摄像头之间的距离。
根据本申请提供的一种车辆运行轨迹追踪方法,所述对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别,具体包括:
基于已训练的车辆重识别模型分别对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别;
其中,所述车辆重识别模型是基于样本车辆对应不同拍摄角度的样本图像训练得到的;所述车辆重识别模型的损失函数包括车辆序号损失函数、拍摄角度损失函数以及摄像头位置损失函数。
本申请还提供一种车辆运行轨迹追踪装置,包括:
车辆重识别单元,用于对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别,得到所述第一摄像头和所述第二摄像头在同一时刻拍摄的包含所述目标车辆的第一图像和第二图像;
运行轨迹获取单元,用于基于所述第一摄像头和所述第二摄像头在参考坐标系下的坐标和方向角,以及所述目标车辆分别在所述第一图像和所述第二图像中的位置信息,确定各个时刻下所述目标车辆在参考坐标系中的坐标,得到所述目标车辆的运行轨迹。
根据本申请提供的一种车辆运行轨迹追踪装置,所述运行轨迹获取单元,具体用于:
基于所述第一摄像头和所述第二摄像头在参考坐标系下的坐标和方向角,以及对应图像中所述目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角,确定各个时刻下所述目标车辆在参考坐标系中的坐标。
根据本申请提供的一种车辆运行轨迹追踪装置,还包括:
夹角确定单元,用于基于对应摄像头的焦距,以及对应图像中所述目标车辆与图像中轴线之间的距离,计算所述目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角。
根据本申请提供的一种车辆运行轨迹追踪装置,还包括:
标定图像拍摄单元,用于分别通过所述第一摄像头和所述第二摄像头对标定物进行拍摄,得到第一标定图像和第二标定图像;
焦距确定单元,用于基于所述标定物到所述第一摄像头和所述第二摄像头之间连线的距离、所述标定物分别在所述第一标定图像和所述第二标定图像中距离图像中轴线的距离,以及所述第一摄像头和所述第二摄像头之间的距离,确定所述第一摄像头和所述第二摄像头的焦距。
本申请还提供一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述任一种所述车辆运行轨迹追踪方法的步骤。
本申请还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述车辆运行轨迹追踪方法的步骤。
本申请提供的车辆运行轨迹追踪方法、装置、电子设备和存储介质,通过对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别,得到第一摄像头和第二摄像头在同一时刻拍摄的包含目标车辆的第一图像和第二图像,并基于两个摄像头的视觉几何关系,确定各个时刻下目标车辆在参考坐标系中的坐标,得到目标车辆的运行轨迹,提高了同一目标车辆的跨相机跟踪的准确性,以及目标车辆定位的准确性。
附图说明
为了更清楚地说明本申请或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请提供的车辆运行轨迹追踪方法的流程示意图;
图2为本申请提供的目标车辆定位的示意图;
图3为本申请提供的目标车辆、摄像头焦点以及摄像头光轴的示意图;
图4为本申请提供的摄像头焦距标定方法的流程示意图;
图5为本申请提供的摄像头标定方法的示意图;
图6为本申请提供的车辆运行轨迹追踪装置的结构示意图之一;
图7为本申请提供的车辆运行轨迹追踪装置的结构示意图之二;
图8为本申请提供的电子设备的结构示意图;
附图标记:
210:目标车辆; 220:第一摄像头; 230:第二摄像头。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请中的附图,对本申请中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
图1为本申请实施例提供的车辆运行轨迹追踪方法的流程示意图,如图1所示,该方法包括:
步骤110,对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别,得到第一摄像头和第二摄像头在同一时刻拍摄的包含目标车辆的第一图像和第二图像。
具体地,设置两个摄像头进行监控拍摄,并对两个摄像头拍摄的视频进行目标车辆重识别。其中,将两个摄像头分别表示为第一摄像头和第二摄像头,第一摄像头和第二摄像头可以由两个单目相机提供。需要说明的是,此处“第一”和“第二”仅用于对两个摄像头及其拍摄的图像进行区分。两个摄像头中的任一摄像头为第一摄像头,另一摄像头为第二摄像头。在安装两个摄像头时,可以根据实际应用场景任意设置安装位置和方向角,只需保证第一摄像头和第二摄像头的有效区域存在重叠即可。
由于不同摄像头的视角不同,因此不同摄像头拍摄的视频中,同一车辆的外观可能存在较大差异。例如,同一车辆在第一摄像头拍摄的视频帧和第二摄像头拍摄的视频帧中的角度不同,甚至可能存在180°的差异,导致同一车辆在不同摄像头拍摄的视频中的外观显著不同。因此,本申请实施例采用车辆重识别技术对两个摄像头拍摄的视频进行目标车辆的识别,将不同视角拍摄的图像中的同一目标车辆进行匹配,提高同一目标车辆的跨相机跟踪的准确性。对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别之后,可以获取第一摄像头和第二摄像头在同一时刻拍摄的包含目标车辆的第一图像和第二图像。即,第一图像和第二图像为同一时刻两个摄像头分别拍摄的包含目标车辆的图像。并且,第一图像和第二图像可以有多个,分别代表不同时刻下两个摄像头分别拍摄的包含目标车辆的图像。
步骤120,基于第一摄像头和第二摄像头在参考坐标系下的坐标和方向角,以及目标车辆分别在第一图像和第二图像中的位置信息,确定各个时刻下目标车辆在参考坐标系中的坐标,得到目标车辆的运行轨迹。
具体地,识别出目标车辆后,为了精准定位目标车辆,可以利用第一摄像头和第二摄像头之间的视觉几何关系,确定各个时刻下目标车辆在参考坐标系下的坐标,得到目标车辆的运行轨迹。其中,参考坐标系可以根据实际应用场景进行设置,例如可以在俯视视角下,以任一摄像头的相机坐标系原点为原点,以正北方向为Y轴,以正东方向为X轴。此处,可以基于双目测距算法计算目标车辆在参考坐标系下的坐标。具体而言,可以基于目标车辆分别在第一图像和第二图像中的位置信息,确定目标车辆与第一摄像头之间的方位关系,以及目标车辆与第二摄像头之间的方位关系。再结合第一摄像头和第二摄像头在参考坐标系下的坐标和方向角,计算目标车辆在参考坐标系中的坐标。其中,摄像头的方向角可以表征该摄像头的朝向,其可以决定该摄像头的拍摄视角,例如,方向角可以为摄像头朝向与正东方向的夹角。摄像头的安装位置,即在参考坐标系下的坐标,以及摄像头的朝向,即方向角,可以共同影响拍摄目标在其拍摄的图像中的位置,以及该目标与该摄像头之间的方位关系。因此,在确定目标车辆在参考坐标系中的坐标时,可以综合第一摄像头和第二摄像头在参考坐标系下的坐标和方向角,以及目标车辆分别在第一图像和第二图像中的位置信息,确定目标车辆在参考坐标系中的坐标。
由于第一图像和第二图像是第一摄像头和第二摄像头在同一时刻拍摄得到的图像,为了便于说明,可以将某一时刻拍摄的第一图像和第二图像称为该时刻的图像对。基于某一时刻的图像对,利用上述方式可以确定该时刻下目标车辆在参考坐标系中的坐标。因此,基于步骤110中获取的多个时刻的图像对,可以确定各个时刻下目标车辆在参考坐标系中的坐标,从而形成目标车辆的运行轨迹。
得到目标车辆的运行轨迹数据后,可以对其进行描绘和可视化处理,以便于根据目标车辆的运行轨迹执行后续的分析处理。例如,交警可以根据涉事车辆的运行轨迹对涉事车辆进行责任划分,或者,赛车手可以根据自己过去驾驶车辆的运行轨迹,细化驾驶细节,提升比赛成绩等。
本申请实施例提供的方法,通过对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别,得到第一摄像头和第二摄像头在同一时刻拍摄的包含目标车辆的第一图像和第二图像,并基于两个摄像头的视觉几何关系,确定各个时刻下目标车辆在参考坐标系中的坐标,得到目标车辆的运行轨迹,提高了同一目标车辆的跨相机跟踪的准确性,以及目标车辆定位的准确性。
基于上述实施例,步骤120具体包括:
基于第一摄像头和第二摄像头在参考坐标系下的坐标和方向角,以及对应图像中目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角,确定各个时刻下目标车辆在参考坐标系中的坐标。
具体地,图2为本申请实施例提供的目标车辆定位的示意图,如图2所示,假设目标车辆210在参考坐标系中的坐标为(xt,yt),根据目标车辆210与第一摄像头220之间的夹角,目标车辆210与第二摄像头230之间的夹角,以及第一摄像头220和第二摄像头230在参考坐标系中的坐标,利用三角函数可以计算目标车辆210参考坐标系中的坐标。
其中,目标车辆210与第一摄像头220之间的夹角由第一摄像头220的方向角β以及目标车辆210和第一摄像头220焦点间的连线与第一摄像头220光轴之间的夹角β1构成;目标车辆210与第二摄像头230之间的夹角由第二摄像头230的方向角α以及目标车辆210和第二摄像头230焦点间的连线与第二摄像头230光轴之间的夹角α1构成。因此,可以基于第一摄像头和第二摄像头在参考坐标系下的坐标和方向角,以及对应图像中目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角,确定各个时刻下目标车辆在参考坐标系中的坐标。
基于上述任一实施例,目标车辆在参考坐标系中的坐标是采用如下公式确定的:
Figure BDA0002907752210000091
γ1=tan(β+β1)
γ2=tan(π-α1-α)
其中,(x1,y1)和(x2,y2)为第一摄像头和第二摄像头在参考坐标系下的坐标,β和α分别为第一摄像头和第二摄像头的方向角,(xt,yt)为目标车辆在参考坐标系中的坐标,β1和α1分别为第一图像和第二图像中目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角。
具体地,根据正切函数的定义,可以得到:
Figure BDA0002907752210000092
Figure BDA0002907752210000093
其中,(x1,y1)和(x2,y2)为第一摄像头和第二摄像头在参考坐标系下的坐标,β和α分别为第一摄像头和第二摄像头的方向角,(xt,yt)为目标车辆在参考坐标系中的坐标,β1和α1分别为第一图像和第二图像中目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角。
从上述推导可得:
Figure BDA0002907752210000101
基于上述任一实施例,对应图像中目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角,是基于如下步骤确定的:
基于对应摄像头的焦距,以及对应图像中目标车辆与图像中轴线之间的距离,计算目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角。
具体地,确定对应图像中目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角,即确定第一图像中目标车辆和第一摄像头焦点间的连线与第一摄像头光轴之间的夹角,和第二图像中目标车辆和第二摄像头焦点间的连线与第二摄像头光轴之间的夹角。
图3为本申请实施例提供的目标车辆、摄像头焦点以及摄像头光轴的示意图,如图3所示,可以基于对应摄像头的焦距,以及对应图像中目标车辆与图像中轴线之间的距离,利用正切函数的定义,计算对应图像中目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角的正切值,再进行反正切运算得到该夹角的值。即,可以采用如下公式计算目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角θ:
Figure BDA0002907752210000102
其中,1为对应图像中目标车辆与图像中轴线之间的距离,即目标车辆的锚定框中心点与图像中轴线的距离,f为摄像头的焦距。
基于上述任一实施例,图4为本申请实施例提供的摄像头焦距标定方法的流程示意图,如图4所示,第一摄像头和第二摄像头的焦距是基于如下步骤确定的:
步骤410,分别通过第一摄像头和第二摄像头对标定物进行拍摄,得到第一标定图像和第二标定图像;
步骤420,基于标定物到第一摄像头和第二摄像头之间连线的距离、标定物分别在第一标定图像和第二标定图像中距离图像中轴线的距离,以及第一摄像头和第二摄像头之间的距离,确定第一摄像头和第二摄像头的焦距。
具体地,首先将第一摄像头和第二摄像头放置于同一条水平线上,且两个摄像头的方向角相同。通过第一摄像头和第二摄像头对同一标定物进行拍摄,分别得到第一摄像头拍摄得到的第一标定图像和第二摄像头拍摄得到的第二标定图像。需要说明的是,第一摄像头和第二摄像头的焦距相同。
由于两个摄像头的位置不同,因此对于同一标定物p(x,z),在成像时该标定物在各个摄像头拍摄的图像中的位置不同。图5为本申请实施例提供的摄像头标定方法的示意图,如图5所示,由于第一摄像头和第二摄像头位于同一条水平线上,且两个摄像头的方向角相同,因此两个摄像头对应的图像坐标系的x轴重合,第一摄像头和第二摄像头的连线与图像坐标系的x轴平行。故可以利用平行线分线段成比例定理,基于标定物p(x,z)到第一摄像头220和第二摄像头230之间连线的距离、标定物p(x,z)分别在第一标定图像和第二标定图像中距离图像中轴线的距离x1和xr,以及第一摄像头220和第二摄像头230之间的距离,计算第一摄像头和第二摄像头的焦距。
基于上述任一实施例,第一摄像头和第二摄像头的焦距是采用如下公式确定的:
Figure BDA0002907752210000111
其中,f为第一摄像头和第二摄像头的焦距,Z为标定物到第一摄像头和第二摄像头之间连线的距离,x1和xr分别为标定物在第一标定图像和第二标定图像中距离图像中轴线的距离,b为第一摄像头和第二摄像头之间的距离。
具体地,如图5所示,根据平行线分线段成比例定理,可以得知:
Figure BDA0002907752210000121
其中,f为第一摄像头220和第二摄像头230的焦距,Z为标定物p(x,z)到第一摄像头220和第二摄像头230之间连线的距离,x1和xr分别为标定物p(x,z)在第一标定图像和第二标定图像中距离图像中轴线的距离,b为第一摄像头220和第二摄像头230之间的距离。
对上式进行求解,可以得到第一摄像头和第二摄像头的焦距为:
Figure BDA0002907752210000122
基于上述任一实施例,步骤110具体包括:
基于已训练的车辆重识别模型分别对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别;
其中,车辆重识别模型是基于样本车辆对应不同拍摄角度的样本图像训练得到的;车辆重识别模型的损失函数包括车辆序号损失函数、拍摄角度损失函数以及摄像头位置损失函数。
具体地,可以利用训练好的车辆重识别模型对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别。其中,可以根据多目标跟踪算法在残差网络ResNet的基础上构建一个卷积神经网络,作为车辆重识别模型的初始模型,并对该初始模型进行训练,得到已训练的车辆重识别模型。在训练车辆重识别模型之前,可以收集大量种类不同的样本车辆对应不同拍摄角度的样本图像作为训练样本,以提高车辆重识别模型对拍摄角度的容错性。随即,基于样本车辆对应不同拍摄角度的样本图像训练初始模型,从而得到车辆重识别模型。
此处,为了提升训练效果,从而提高车辆重识别模型的重识别准确性,可以将训练时的损失函数设置为包括车辆序号损失函数、拍摄角度损失函数以及摄像头位置损失函数三个部分。其中,可以为训练样本中的每一个样本车辆赋予车辆序号,以标记各个样本车辆。车辆序号损失函数可以用于降低车辆识别模型对于同一样本车辆的样本图像输出不同识别结果(即不同的车辆序号)的概率。由于不同的拍摄角度会导致同一样本车辆在不同样本图像中的外观差异较大,从而错误地导致训练损失的增加,因此可以设置拍摄角度损失函数,以扣除拍摄角度造成的负面影响。此外,由于各个摄像头的安装位置不同,造成同一样本车辆拍摄得到的样本图像的背景不同,从而影响车辆重识别的准确性,错误地导致训练损失的增加,因此可以设置摄像头位置损失函数,以扣除摄像头安装位置造成的负面影响。基于上述损失函数训练得到的车辆重识别模型,可以准确地将不同位置的摄像头捕获到的目标车辆识别出来。
下面对本申请提供的车辆运行轨迹追踪装置进行描述,下文描述的车辆运行轨迹追踪装置与上文描述的车辆运行轨迹追踪方法可相互对应参照。
基于上述任一实施例,图6为本申请实施例提供的车辆运行轨迹追踪装置的结构示意图之一,如图6所示,该装置包括:车辆重识别单元610和运行轨迹获取单元620。
其中,车辆重识别单元610用于对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别,得到第一摄像头和第二摄像头在同一时刻拍摄的包含目标车辆的第一图像和第二图像;
运行轨迹获取单元620用于基于第一摄像头和第二摄像头在参考坐标系下的坐标和方向角,以及目标车辆分别在第一图像和第二图像中的位置信息,确定各个时刻下目标车辆在参考坐标系中的坐标,得到目标车辆的运行轨迹。
本申请实施例提供的装置,通过对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别,得到第一摄像头和第二摄像头在同一时刻拍摄的包含目标车辆的第一图像和第二图像,并基于两个摄像头的视觉几何关系,确定各个时刻下目标车辆在参考坐标系中的坐标,得到目标车辆的运行轨迹,提高了同一目标车辆的跨相机跟踪的准确性,以及目标车辆定位的准确性。
基于上述任一实施例,运行轨迹获取单元620具体用于:
基于第一摄像头和第二摄像头在参考坐标系下的坐标和方向角,以及对应图像中目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角,确定各个时刻下目标车辆在参考坐标系中的坐标。
基于上述任一实施例,目标车辆在参考坐标系中的坐标是采用如下公式确定的:
Figure BDA0002907752210000141
γ1=tan(β+β1)
γ2=tan(π-α1-α)
其中,(x1,y1)和(x2,y2)为第一摄像头和第二摄像头在参考坐标系下的坐标,β和α分别为第一摄像头和第二摄像头的方向角,(xt,yt)为目标车辆在参考坐标系中的坐标,β1和α1分别为第一图像和第二图像中目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角。
基于上述任一实施例,该装置还包括:
夹角确定单元,用于基于对应摄像头的焦距,以及对应图像中目标车辆与图像中轴线之间的距离,计算目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角。
基于上述任一实施例,图7为本申请实施例提供的车辆运行轨迹追踪装置的结构示意图之二,如图7所示,该装置还包括:
标定图像拍摄单元630,用于分别通过第一摄像头和第二摄像头对标定物进行拍摄,得到第一标定图像和第二标定图像;
焦距确定单元640,用于基于标定物到第一摄像头和第二摄像头之间连线的距离、标定物分别在第一标定图像和第二标定图像中距离图像中轴线的距离,以及第一摄像头和第二摄像头之间的距离,确定第一摄像头和第二摄像头的焦距。
基于上述任一实施例,第一摄像头和第二摄像头的焦距是采用如下公式确定的:
Figure BDA0002907752210000151
其中,f为第一摄像头和第二摄像头的焦距,Z为标定物到第一摄像头和第二摄像头之间连线的距离,x1和xr分别为标定物在第一标定图像和第二标定图像中距离图像中轴线的距离,b为第一摄像头和第二摄像头之间的距离。
基于上述任一实施例,车辆重识别单元610具体用于:
基于已训练的车辆重识别模型分别对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别;
其中,车辆重识别模型是基于样本车辆对应不同拍摄角度的样本图像训练得到的;车辆重识别模型的损失函数包括车辆序号损失函数、拍摄角度损失函数以及摄像头位置损失函数。
本申请实施例提供的车辆运行轨迹追踪装置用于执行上述车辆运行轨迹追踪方法,其实施方式与本申请提供的车辆运行轨迹追踪方法的实施方式一致,且可以达到相同的有益效果,此处不再赘述。
图8示例了一种电子设备的实体结构示意图,如图8所示,该电子设备可以包括:处理器(processor)810、通信接口(Communications Interface)820、存储器(memory)830和通信总线840,其中,处理器810,通信接口820,存储器830通过通信总线840完成相互间的通信。处理器810可以调用存储器830中的逻辑指令,以执行车辆运行轨迹追踪方法,该方法包括:对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别,得到所述第一摄像头和所述第二摄像头在同一时刻拍摄的包含所述目标车辆的第一图像和第二图像;基于所述第一摄像头和所述第二摄像头在参考坐标系下的坐标和方向角,以及所述目标车辆分别在所述第一图像和所述第二图像中的位置信息,确定各个时刻下所述目标车辆在参考坐标系中的坐标,得到所述目标车辆的运行轨迹。
此外,上述的存储器830中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本申请实施例提供的电子设备中的处理器810可以调用存储器830中的逻辑指令,实现上述车辆运行轨迹追踪方法,其实施方式与本申请提供的车辆运行轨迹追踪方法的实施方式一致,且可以达到相同的有益效果,此处不再赘述。
另一方面,本申请还提供一种计算机程序产品,下面对本申请提供的计算机程序产品进行描述,下文描述的计算机程序产品与上文描述的车辆运行轨迹追踪方法可相互对应参照。
所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述各方法所提供的车辆运行轨迹追踪方法,该方法包括:对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别,得到所述第一摄像头和所述第二摄像头在同一时刻拍摄的包含所述目标车辆的第一图像和第二图像;基于所述第一摄像头和所述第二摄像头在参考坐标系下的坐标和方向角,以及所述目标车辆分别在所述第一图像和所述第二图像中的位置信息,确定各个时刻下所述目标车辆在参考坐标系中的坐标,得到所述目标车辆的运行轨迹。
本申请实施例提供的计算机程序产品被执行时,实现上述车辆运行轨迹追踪方法,其实施方式与本申请提供的车辆运行轨迹追踪方法的实施方式一致,且可以达到相同的有益效果,此处不再赘述。
又一方面,本申请还提供一种非暂态计算机可读存储介质,下面对本申请提供的非暂态计算机可读存储介质进行描述,下文描述的非暂态计算机可读存储介质与上文描述的车辆运行轨迹追踪方法可相互对应参照。
本申请还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各提供的车辆运行轨迹追踪方法,该方法包括:对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别,得到所述第一摄像头和所述第二摄像头在同一时刻拍摄的包含所述目标车辆的第一图像和第二图像;基于所述第一摄像头和所述第二摄像头在参考坐标系下的坐标和方向角,以及所述目标车辆分别在所述第一图像和所述第二图像中的位置信息,确定各个时刻下所述目标车辆在参考坐标系中的坐标,得到所述目标车辆的运行轨迹。
本申请实施例提供的非暂态计算机可读存储介质上存储的计算机程序被执行时,实现上述车辆运行轨迹追踪方法,其实施方式与本申请提供的车辆运行轨迹追踪方法的实施方式一致,且可以达到相同的有益效果,此处不再赘述。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。

Claims (10)

1.一种车辆运行轨迹追踪方法,其特征在于,包括:
对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别,得到所述第一摄像头和所述第二摄像头在同一时刻拍摄的包含所述目标车辆的第一图像和第二图像;
基于所述第一摄像头和所述第二摄像头在参考坐标系下的坐标和方向角,以及所述目标车辆分别在所述第一图像和所述第二图像中的位置信息,确定各个时刻下所述目标车辆在参考坐标系中的坐标,得到所述目标车辆的运行轨迹;
所述基于所述第一摄像头和所述第二摄像头在参考坐标系下的坐标和方向角,以及所述目标车辆分别在所述第一图像和所述第二图像中的位置信息,确定各个时刻下所述目标车辆在参考坐标系中的坐标,具体包括:
基于所述第一摄像头和所述第二摄像头在参考坐标系下的坐标和方向角,以及对应图像中所述目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角,确定各个时刻下所述目标车辆在参考坐标系中的坐标;
所述目标车辆在参考坐标系中的坐标是采用如下公式确定的:
Figure FDA0004076221200000011
γ1=tan(β+β1)
γ2=tan(π-α1-α)
其中,(x1,y1)和(x2,y2)为所述第一摄像头和所述第二摄像头在参考坐标系下的坐标,β和α分别为所述第一摄像头和所述第二摄像头的方向角,(xt,yt)为所述目标车辆在参考坐标系中的坐标,β1和α1分别为所述第一图像和所述第二图像中所述目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角。
2.根据权利要求1所述的车辆运行轨迹追踪方法,其特征在于,所述对应图像中所述目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角,是基于如下步骤确定的:
基于对应摄像头的焦距,以及对应图像中所述目标车辆与图像中轴线之间的距离,计算所述目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角。
3.根据权利要求2所述的车辆运行轨迹追踪方法,其特征在于,所述第一摄像头和所述第二摄像头的焦距是基于如下步骤确定的:
分别通过所述第一摄像头和所述第二摄像头对标定物进行拍摄,得到第一标定图像和第二标定图像;
基于所述标定物到所述第一摄像头和所述第二摄像头之间连线的距离、所述标定物分别在所述第一标定图像和所述第二标定图像中距离图像中轴线的距离,以及所述第一摄像头和所述第二摄像头之间的距离,确定所述第一摄像头和所述第二摄像头的焦距。
4.根据权利要求3所述的车辆运行轨迹追踪方法,其特征在于,所述第一摄像头和所述第二摄像头的焦距是采用如下公式确定的:
Figure FDA0004076221200000021
其中,f为所述第一摄像头和所述第二摄像头的焦距,Z为所述标定物到所述第一摄像头和所述第二摄像头之间连线的距离,xl和xr分别为所述标定物在所述第一标定图像和所述第二标定图像中距离图像中轴线的距离,b为所述第一摄像头和所述第二摄像头之间的距离。
5.根据权利要求1至4任一项所述的车辆运行轨迹追踪方法,其特征在于,所述对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别,具体包括:
基于已训练的车辆重识别模型分别对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别;
其中,所述车辆重识别模型是基于样本车辆对应不同拍摄角度的样本图像训练得到的;所述车辆重识别模型的损失函数包括车辆序号损失函数、拍摄角度损失函数以及摄像头位置损失函数。
6.一种车辆运行轨迹追踪装置,其特征在于,包括:
车辆重识别单元,用于对第一摄像头和第二摄像头拍摄的视频进行目标车辆重识别,得到所述第一摄像头和所述第二摄像头在同一时刻拍摄的包含所述目标车辆的第一图像和第二图像;
运行轨迹获取单元,用于基于所述第一摄像头和所述第二摄像头在参考坐标系下的坐标和方向角,以及所述目标车辆分别在所述第一图像和所述第二图像中的位置信息,确定各个时刻下所述目标车辆在参考坐标系中的坐标,得到所述目标车辆的运行轨迹;
所述基于所述第一摄像头和所述第二摄像头在参考坐标系下的坐标和方向角,以及所述目标车辆分别在所述第一图像和所述第二图像中的位置信息,确定各个时刻下所述目标车辆在参考坐标系中的坐标,具体包括:
基于所述第一摄像头和所述第二摄像头在参考坐标系下的坐标和方向角,以及对应图像中所述目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角,确定各个时刻下所述目标车辆在参考坐标系中的坐标;
所述目标车辆在参考坐标系中的坐标是采用如下公式确定的:
Figure FDA0004076221200000031
γ1=tan(β+β1)
γ2=tan(π-α1-α)
其中,(x1,y1)和(x2,y2)为所述第一摄像头和所述第二摄像头在参考坐标系下的坐标,β和α分别为所述第一摄像头和所述第二摄像头的方向角,(xt,yt)为所述目标车辆在参考坐标系中的坐标,β1和α1分别为所述第一图像和所述第二图像中所述目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角。
7.根据权利要求6所述的车辆运行轨迹追踪装置,其特征在于,还包括:
夹角确定单元,用于基于对应摄像头的焦距,以及对应图像中所述目标车辆与图像中轴线之间的距离,计算所述目标车辆和摄像头焦点间的连线与摄像头光轴之间的夹角。
8.根据权利要求7所述的车辆运行轨迹追踪装置,其特征在于,还包括:
标定图像拍摄单元,用于分别通过所述第一摄像头和所述第二摄像头对标定物进行拍摄,得到第一标定图像和第二标定图像;
焦距确定单元,用于基于所述标定物到所述第一摄像头和所述第二摄像头之间连线的距离、所述标定物分别在所述第一标定图像和所述第二标定图像中距离图像中轴线的距离,以及所述第一摄像头和所述第二摄像头之间的距离,确定所述第一摄像头和所述第二摄像头的焦距。
9.一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至5任一项所述车辆运行轨迹追踪方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述车辆运行轨迹追踪方法的步骤。
CN202110076276.8A 2021-01-20 2021-01-20 车辆运行轨迹追踪方法、装置、电子设备和存储介质 Active CN112991401B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110076276.8A CN112991401B (zh) 2021-01-20 2021-01-20 车辆运行轨迹追踪方法、装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110076276.8A CN112991401B (zh) 2021-01-20 2021-01-20 车辆运行轨迹追踪方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN112991401A CN112991401A (zh) 2021-06-18
CN112991401B true CN112991401B (zh) 2023-07-14

Family

ID=76344559

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110076276.8A Active CN112991401B (zh) 2021-01-20 2021-01-20 车辆运行轨迹追踪方法、装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN112991401B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420650B (zh) * 2021-06-22 2024-06-11 东软集团股份有限公司 一种车辆匹配方法、装置、设备及介质
CN113652249A (zh) * 2021-07-23 2021-11-16 华院计算技术(上海)股份有限公司 熄焦车的定位方法及装置、系统、存储介质、终端
CN114255396A (zh) * 2021-11-01 2022-03-29 南方电网数字电网研究院有限公司 输电线路环境重构方法、系统及装置、控制器
CN115880661B (zh) * 2023-02-01 2023-06-23 天翼云科技有限公司 一种车辆匹配的方法及装置、电子设备、存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111753663A (zh) * 2020-05-25 2020-10-09 上海欧菲智能车联科技有限公司 目标检测方法及装置
WO2021004548A1 (zh) * 2019-07-08 2021-01-14 中原工学院 一种基于双目立体视觉系统的车辆智能测速方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101344965A (zh) * 2008-09-04 2009-01-14 上海交通大学 基于双目摄像的跟踪系统
US9043146B2 (en) * 2013-06-19 2015-05-26 The Boeing Company Systems and methods for tracking location of movable target object
CN108200339A (zh) * 2017-12-29 2018-06-22 北京臻迪科技股份有限公司 目标追踪定位方法、系统及摄像装置
CN109271892A (zh) * 2018-08-30 2019-01-25 百度在线网络技术(北京)有限公司 一种物体识别方法、装置、设备、车辆和介质
CN109409311A (zh) * 2018-11-07 2019-03-01 上海为森车载传感技术有限公司 一种基于双目立体视觉的限高预警方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021004548A1 (zh) * 2019-07-08 2021-01-14 中原工学院 一种基于双目立体视觉系统的车辆智能测速方法
CN111753663A (zh) * 2020-05-25 2020-10-09 上海欧菲智能车联科技有限公司 目标检测方法及装置

Also Published As

Publication number Publication date
CN112991401A (zh) 2021-06-18

Similar Documents

Publication Publication Date Title
CN112991401B (zh) 车辆运行轨迹追踪方法、装置、电子设备和存储介质
CN108805934B (zh) 一种车载摄像机的外部参数标定方法及装置
CN106407315B (zh) 一种基于街景图像数据库的车辆自主定位方法
CN108955718B (zh) 一种视觉里程计及其定位方法、机器人以及存储介质
WO2016035324A1 (en) Method for estimating motion, mobile agent and non-transitory computer-readable medium encoded with a computer program code for causing a processor to execute a method for estimating motion
US11205276B2 (en) Object tracking method, object tracking device, electronic device and storage medium
CN111860352B (zh) 一种多镜头车辆轨迹全跟踪系统及方法
KR101544021B1 (ko) 3차원 지도 생성 장치 및 3차원 지도 생성 방법
JP2015181042A (ja) 移動オブジェクトの検出及び追跡
CN105374049B (zh) 一种基于稀疏光流法的多角点跟踪方法及装置
CN111027381A (zh) 利用单目相机识别障碍物的方法、装置、设备及存储介质
CN111279354A (zh) 图像处理方法、设备及计算机可读存储介质
CN110827321B (zh) 一种基于三维信息的多相机协同的主动目标跟踪方法
CN111798483A (zh) 一种抗遮挡行人跟踪的方法、装置及存储介质
WO2016070300A1 (en) System and method for detecting genuine user
CN109829933A (zh) 影像目标追踪方法及装置
CN104331907B (zh) 一种基于orb特征检测测量载体速度的方法
CN116469079A (zh) 一种自动驾驶bev任务学习方法及相关装置
CN112862818A (zh) 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法
CN117173215A (zh) 一种跨摄像头的内河航船全程轨迹识别方法及系统
CN109344677B (zh) 识别立体物的方法、装置、车辆和存储介质
CN114170376B (zh) 一种针对室外大场景的多源信息融合分组式运动恢复结构方法
CN114037977B (zh) 道路灭点的检测方法、装置、设备及存储介质
CN116151320A (zh) 一种抗动态目标干扰的视觉里程计方法及视觉里程计装置
CN112802112B (zh) 视觉定位方法、装置、服务器及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240513

Address after: Room 6227, No. 999, Changning District, Shanghai 200050

Patentee after: Shenlan robot (Shanghai) Co.,Ltd.

Country or region after: China

Address before: 200336 unit 1001, 369 Weining Road, Changning District, Shanghai

Patentee before: DEEPBLUE TECHNOLOGY (SHANGHAI) Co.,Ltd.

Country or region before: China

TR01 Transfer of patent right