CN109299656B - 一种车载视觉系统场景视深确定方法 - Google Patents

一种车载视觉系统场景视深确定方法 Download PDF

Info

Publication number
CN109299656B
CN109299656B CN201810917032.6A CN201810917032A CN109299656B CN 109299656 B CN109299656 B CN 109299656B CN 201810917032 A CN201810917032 A CN 201810917032A CN 109299656 B CN109299656 B CN 109299656B
Authority
CN
China
Prior art keywords
depth
neural network
vehicle
visual
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810917032.6A
Other languages
English (en)
Other versions
CN109299656A (zh
Inventor
缪其恒
吴长伟
苏志杰
王江明
许炜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Zero Run Technology Co Ltd
Original Assignee
Zhejiang Zero Run Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Zero Run Technology Co Ltd filed Critical Zhejiang Zero Run Technology Co Ltd
Priority to CN201810917032.6A priority Critical patent/CN109299656B/zh
Publication of CN109299656A publication Critical patent/CN109299656A/zh
Application granted granted Critical
Publication of CN109299656B publication Critical patent/CN109299656B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种车载视觉系统场景视深确定方法,所述车载视觉系统包括深度视深卷积神经网络模块,其特征在于,所述方法包括:S1,采集车载视觉系统的参数配置信息和图像信息;S2,对图像预处理,并将预处理后的时序图像在深度通道叠加,形成神经网络输入图像;S3,深度视深卷积神经网络模块根据接收的所述神经网络输入图像信息确定视觉场景视深图;S4,输出视觉场景视深图,按照视觉系统实际车辆安装参数,微调视深图输出以补偿安装位置变化,使得输出视深坐标系与车辆坐标系方向对齐。采用本发明,增强测距系统的鲁棒性。

Description

一种车载视觉系统场景视深确定方法
技术领域
本发明涉及车载视觉系统,特别涉及一种车载视觉系统场景视深确定方法。
背景技术
智能化是如今汽车行业发展的重要趋势之一,视觉系统在车辆主动安全领域应用日益广泛。单双目前视、后视以及360度环视系统已经成为了现有高级辅助驾驶系统的主流感知器件。随着人工智能技术的发展以及嵌入式平台运算能力的提升,辅助驾驶系统的自动化等级日益提升。视觉感知系统的主要作用包括:道路交通场景目标及可行驶区域识别、场景视深估算以及车辆自身状态估计等。现有检测方法由于受人工设计的图像特征描述算子限制,其应用场景以及效果均具有一定的局限性。
发明内容
本发明的目的提供一种车载视觉系统场景视深确定方法,节省了成本,并且提高。
为解决现有技术存在的问题,本发明提供一种车载视觉系统场景视深确定方法,该方法包括:
S1,采集车载视觉系统的参数配置信息和图像信息;
S2,对图像预处理,并将预处理后的时序图像在深度通道叠加,形成神经网络输入图像;
S3,深度视深卷积神经网络模块根据接收的所述神经网络输入图像信息确定视觉场景视深图;
S4,输出视觉场景视深图,按照视觉系统实际车辆安装参数,微调视深图输出以补偿安装位置变化,使得输出视深坐标系与车辆坐标系方向对齐:
d′(x,y)=R(θ)d(x,y)
其中,d′(x,y)为补偿后场景视深输出,d(x,y)为网络输出,R(θ)为旋转坐标变换矩阵。
优选的,还包括深度视深卷积神经网络模块进行离线训练的步骤,所述步骤包括:
采集各类道路驾驶场景数据,提取时序离散训练样本集,并通过激光雷达点云输出数据对训练样本集进行标定;
根据相机标定参数以及激光雷达系统标定参数,将两者坐标系对齐后,利用小孔成像原理将点云数据坐标变换至图像坐标系内,并通过双线性插值方法补全视深图无有效数据部分来生成场景视深mask;
根据采集设备的配置,离线生成相应视深图标签。
利用视频数据时间戳信息与RT设备高频采集信号匹配,积分采集周期内的X,Y,Z三个坐标轴对应的速度及角速度信息,得到神经网络对应的输出标签参考数据,所述输出标签参考数据为六自由度车辆与转动信息。
优选的,所述深度视深卷积神经网络模块离线训练步骤采用基于迷你批量方式额梯度下降方法,所述方法的每个循环内,基于反向地推对损失函数求最优解来优化网络权重参数,直至设定的循环迭代次数完成,所述损失函数Loss计算公式为:
Figure BDA0001763298290000031
其中,d(x,y)为输出视深图的每个像素(x,y)对应的视深,dT(x,y)为训练样本视深标签,W,H为图像宽高。
优选的,还包括对深度视深卷积神经网络模块设备移植的步骤,所述深度视深卷积神经网络模块设备移植的步骤包括:
对离线训练步骤所生成的深度卷积神经网络进行基于所应用的嵌入式平台运算特性进行压缩操作,包括稀疏化与量化;
验证压缩后神经网络精度,若精度损失小于预设的阈值,则确定应用压缩后深度视深卷积神经网络模块;若神经精度损失大于预设的阈值,则在当前离线训练集上重新离线训练至精度损失小于预设的阈值。
优选的,所述深度视深卷积神经网络模块包括反卷积层,所述反卷积层用于将指定尺度的图像特征层进行上采样至输入尺度。
本发明实施例基于深度视深卷积神经网络对单目相机场景视深进行确定,经后处理可输出辅助驾驶及自动驾驶系统相关应用目标距离,一方面为预警提示以及车辆操作规划与决策提供依据。另外,深度深度视深卷积神经网络模块的模型结构简单,模型大小以及运算量具备低功耗平台实时运行的可行性;而且基于共享图像特征,因此应用延展性强;本方法可与其他测距系统或方法融合,增强测距系统鲁棒性。
附图说明
图1是本发明一种车载视觉系统场景视深确定方法的一种实施例的流程示意图;
图2是本发明一种车载视觉系统场景视深确定方法的深度视深卷积神经网络模块拓扑示意图。
具体实施方式
下面结合附图对本发明进行详细说明。
参考图1,该图是本发明一种车载视觉系统场景视深确定方法的一种实施例的流程示意图,该流程包括:
步骤S1,采集车载视觉系统的参数配置信息和图像信息;具体实现时,该参数可以为自动曝光、自动白平衡等参数;
步骤S2,对图像预处理,并将预处理后的时序图像在深度通道叠加,形成神经网络输入图像;具体实现时,图像预处理包括畸变矫正、抖动去除以及平滑滤波;形成的神经网络输入图像可以为320*180*3维度的深度卷积神经网络输入;
步骤S3,深度视深卷积神经网络模块根据接收的所述神经网络输入图像信息确定视觉场景视深图;
步骤S4,输出视觉场景视深图,按照视觉系统实际车辆安装参数,微调视深图输出以补偿安装位置变化,使得输出视深坐标系与车辆坐标系方向对齐:
d′(x,y)=R(θ)d(x,y)
其中,d′(x,y)为补偿后场景视深输出,d(x,y)为网络输出,R(θ)为旋转坐标变换矩阵。
具体实现时,如图2所示,深度视深卷积神经网络模块(以下称为深度视深卷积神经网路)输入为3通道车载视觉图像(RGB,320*180*3),输出为320*180输入场景视深图(320*180*1),特征层部分由不同维度的conv+relu+bn组合层构成,具体的三种尺寸包括小尺寸、中尺寸和大尺寸,其余网络结构还包括反卷积以及输出层,下面对包括的网络结构进行介绍:
图像输入层:时序RGB格式图片,大小为320*180*3。
卷积层(conv):对于任意卷积操作,均采用3*3尺寸的卷积滑窗,以及‘0’像素值边缘填充,步长为1,每个卷积层的深度如图2所示,分别为。
池化层:对于此网络内浅层特征进行降采样操作,采用2*2大小滑窗尺寸,取最大值滑窗内4个数值的最大值,步长为2。
激活层(relu):应用于每个卷积层后,所使用的激活方程为修正线性单元(ReLu),其表达式为:max(0,x)。其中,x为该神经元输入。
正则化层(BN):在每个mini-batch中计算得到相应均值与方差,并以之正则化mini-batch样本,所涉及公式见部分8内容。
反卷积层(deconv):将指定尺度的图像特征层进行上采样,至输入尺度;
输出层:输入场景相应的视深图,大小为320*180*1。
另外,深度视深卷积神经网络(Dep-Net)还包括离线训练的步骤,该步骤包括:
训练数据采集与标定的步骤:离线采集各类道路驾驶场景数据,提取时序离散训练样本集若干,利用激光雷达点云输出数据对上述训练样本集进行标定。根据相机标定参数以及激光雷达系统标定参数,将两者坐标系对齐后,利用小孔成像原理将点云数据坐标变换至图像坐标系内,并利用双线性插值方法补全视深图无有效数据部分(由于激光雷达输出点云为离散数据),即生成场景视深mask。根据采集设备的配置,亦可基于双目视觉采集系统(续进行采集同步与矫正),离线生成相应视深图标签。
损失函数以及训练参数设置步骤:训练过程采用基于迷你批量(mini-batch)方式的随机梯度下降方法:即每个循环内,基于反向递推(BP)的方法对损失函数求最优解来优化网络权重参数,直至设定的循环迭代次数完成。损失函数Loss计算公式为:
Figure BDA0001763298290000061
其中,d(x,y)为输出视深图的每个像素(x,y)对应的视深,dT(x,y)为训练样本视深标签,W,H为图像宽高。用户可设置参数有迷你批量样本大小n(可取用最大值由内存上限决定)、学习速率lr(决定收敛速率)、权重衰退系数wd(防止过拟合)、动量系数m(可加快学习速率)以及学习循环数(i)。
另外,深度视深卷积神经网络还包括嵌入式设备移植的步骤:该步骤对离线训练所生成的深度卷积神经网络进行基于所应用的嵌入式平台运算特性进行压缩操作,包括稀疏化与量化。在验证集验证压缩后网络精度,若精度损失小于可应用阈值(默认值为1-2%压缩前精度),则可直接应用压缩后网络进行前向推理;若精度损失大于可应用阈值,则在训练集上重新训练至达到精度损失要求后再做前向推理应用。对于多处理单元平台,进行核间运算资源以及数据通信相关优化。
需要说明的,输出的视觉场景视深图,按照视觉系统实际车辆安装参数,按如下公式微调视深图输出以补偿安装位置(主要考虑俯仰角θ)变化,使得输出视深坐标系与车辆坐标系方向对齐:
d′(x,y)=R(θ)d(x,y)
其中,d′(x,y)为补偿后场景视深输出,d(x,y)为网络输出,R(θ)为旋转坐标变换矩阵。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

Claims (4)

1.一种车载视觉系统场景视深确定方法,所述车载视觉系统包括深度视深卷积神经网络模块,其特征在于,所述方法包括:
S1,采集车载视觉系统的参数配置信息和图像信息;
S2,对图像预处理,并将预处理后的时序图像在深度通道叠加,形成神经网络输入图像;
S3,深度视深卷积神经网络模块根据接收的所述神经网络输入图像信息确定视觉场景视深图;
S4,输出视觉场景视深图,按照视觉系统实际车辆安装参数,微调视深图输出以补偿安装位置变化,使得输出视深坐标系与车辆坐标系方向对齐:
Figure DEST_PATH_IMAGE002
其中,
Figure DEST_PATH_IMAGE004
为补偿后场景视深输出,
Figure DEST_PATH_IMAGE006
为网络输出,R(θ)为旋转坐标变换矩阵;
还包括深度视深卷积神经网络模块进行离线训练的步骤,所述步骤包括:
采集各类道路驾驶场景数据,提取时序离散训练样本集,并通过激光雷达点云输出数据对训练样本集进行标定;
根据相机标定参数以及激光雷达系统标定参数,将两者坐标系对齐后,利用小孔成像原理将点云数据坐标变换至图像坐标系内,并通过双线性插值方法补全视深图非有效数据部分来生成场景视深mask;
根据采集设备的配置,离线生成相应视深图标签;
利用视频数据时间戳信息与RT设备高频采集信号匹配,积分采集周期内的X,Y,Z三个坐标轴对应的速度及角速度信息,得到神经网络对应的输出标签参考数据,所述输出标签参考数据为六自由度车辆与转动信息。
2.根据权利要求1所述的一种车载视觉系统场景视深确定方法,其特征在于,所述深度视深卷积神经网络模块离线训练步骤采用基于迷你批量方式的随机梯度下降方法,所述方法的每个循环内,基于反向递推对损失函数求最优解来优化网络权重参数,直至设定的循环迭代次数完成,所述损失函数Loss计算公式为:
Figure DEST_PATH_IMAGE008
其中,d(x,y)为输出视深图的每个像素(x,y)对应的视深,
Figure DEST_PATH_IMAGE010
为训练样本视深标签,W, H为图像宽高。
3.根据权利要求1所述的一种车载视觉系统场景视深确定方法,其特征在于,还包括对深度视深卷积神经网络模块设备移植的步骤,所述深度视深卷积神经网络模块设备移植的步骤包括:
对离线训练步骤所生成的深度卷积神经网络进行基于所应用的嵌入式平台运算特性进行压缩操作,包括稀疏化与量化;
验证压缩后神经网络精度,若精度损失小于预设的阈值,则确定应用压缩后深度视深卷积神经网络模块;若神经精度损失大于预设的阈值,则在当前离线训练集上重新离线训练至精度损失小于预设的阈值。
4.根据权利要求1所述的一种车载视觉系统场景视深确定方法,其特征在于,所述深度视深卷积神经网络模块包括反卷积层,所述反卷积层用于将指定尺度的图像特征层进行上采样至输入尺度。
CN201810917032.6A 2018-08-13 2018-08-13 一种车载视觉系统场景视深确定方法 Active CN109299656B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810917032.6A CN109299656B (zh) 2018-08-13 2018-08-13 一种车载视觉系统场景视深确定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810917032.6A CN109299656B (zh) 2018-08-13 2018-08-13 一种车载视觉系统场景视深确定方法

Publications (2)

Publication Number Publication Date
CN109299656A CN109299656A (zh) 2019-02-01
CN109299656B true CN109299656B (zh) 2021-10-22

Family

ID=65170455

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810917032.6A Active CN109299656B (zh) 2018-08-13 2018-08-13 一种车载视觉系统场景视深确定方法

Country Status (1)

Country Link
CN (1) CN109299656B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110781717A (zh) * 2019-08-09 2020-02-11 浙江零跑科技有限公司 一种驾驶室场景语义与视深联合分析方法
CN111259719B (zh) * 2019-10-28 2023-08-25 浙江零跑科技股份有限公司 一种基于多目红外视觉系统的驾驶室场景分析方法
CN111257853B (zh) * 2020-01-10 2022-04-01 清华大学 一种基于imu预积分的自动驾驶系统激光雷达在线标定方法
CN113643355B (zh) * 2020-04-24 2024-03-29 广州汽车集团股份有限公司 一种目标车辆位置和朝向的检测方法、系统及存储介质
CN111559314B (zh) * 2020-04-27 2021-08-24 长沙立中汽车设计开发股份有限公司 深度与图像信息融合的3d增强全景环视系统及实现方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107025642A (zh) * 2016-01-27 2017-08-08 百度在线网络技术(北京)有限公司 基于点云数据的车辆轮廓检测方法和装置
CN107145874A (zh) * 2017-05-13 2017-09-08 复旦大学 复杂背景sar图像中的舰船目标检测与鉴别方法
CN107563303A (zh) * 2017-08-09 2018-01-09 中国科学院大学 一种基于深度学习的鲁棒性舰船目标检测方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488534B (zh) * 2015-12-04 2018-12-07 中国科学院深圳先进技术研究院 交通场景深度解析方法、装置及系统
CN106157307B (zh) * 2016-06-27 2018-09-11 浙江工商大学 一种基于多尺度cnn和连续crf的单目图像深度估计方法
CN106295678B (zh) * 2016-07-27 2020-03-06 北京旷视科技有限公司 神经网络训练与构建方法和装置以及目标检测方法和装置
US20180082414A1 (en) * 2016-09-21 2018-03-22 Astralink Ltd. Methods Circuits Assemblies Devices Systems Platforms and Functionally Associated Machine Executable Code for Computer Vision Assisted Construction Site Inspection
CN107274445B (zh) * 2017-05-19 2020-05-19 华中科技大学 一种图像深度估计方法和系统
CN107203134B (zh) * 2017-06-02 2020-08-18 浙江零跑科技有限公司 一种基于深度卷积神经网络的前车跟随方法
CN107680140B (zh) * 2017-10-18 2020-03-27 江南大学 一种基于Kinect相机的深度图像高分辨率重构方法
CN108230384B (zh) * 2017-11-28 2021-08-24 深圳市商汤科技有限公司 图像深度计算方法、装置、存储介质和电子设备
CN107993260A (zh) * 2017-12-14 2018-05-04 浙江工商大学 一种基于混合型卷积神经网络的光场图像深度估计方法
CN108227707B (zh) * 2017-12-25 2021-11-26 清华大学苏州汽车研究院(吴江) 基于激光雷达和端到端深度学习方法的自动驾驶方法
CN108229366B (zh) * 2017-12-28 2021-12-14 北京航空航天大学 基于雷达和图像数据融合的深度学习车载障碍物检测方法
CN108335322B (zh) * 2018-02-01 2021-02-12 深圳市商汤科技有限公司 深度估计方法和装置、电子设备、程序和介质
CN108389226A (zh) * 2018-02-12 2018-08-10 北京工业大学 一种基于卷积神经网络和双目视差的无监督深度预测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107025642A (zh) * 2016-01-27 2017-08-08 百度在线网络技术(北京)有限公司 基于点云数据的车辆轮廓检测方法和装置
CN107145874A (zh) * 2017-05-13 2017-09-08 复旦大学 复杂背景sar图像中的舰船目标检测与鉴别方法
CN107563303A (zh) * 2017-08-09 2018-01-09 中国科学院大学 一种基于深度学习的鲁棒性舰船目标检测方法

Also Published As

Publication number Publication date
CN109299656A (zh) 2019-02-01

Similar Documents

Publication Publication Date Title
CN109299656B (zh) 一种车载视觉系统场景视深确定方法
CN108216229B (zh) 交通工具、道路线检测和驾驶控制方法及装置
CN112912920B (zh) 用于2d卷积神经网络的点云数据转换方法和系统
EP3940421A1 (en) Positioning method and device based on multi-sensor fusion
CN109242003B (zh) 基于深度卷积神经网络的车载视觉系统自身运动确定方法
CN108958233B (zh) 一种感知模拟方法和装置
CN110007675B (zh) 一种基于行车态势图的车辆自动驾驶决策系统及基于无人机的训练集制备方法
US11734918B2 (en) Object identification apparatus, moving body system, object identification method, object identification model learning method, and object identification model learning apparatus
CN109147368A (zh) 基于车道线的智能驾驶控制方法装置与电子设备
CN107577996A (zh) 一种车辆驾驶路径偏移的识别方法及系统
EP3488603B1 (en) Methods and systems for processing an image
CN112731925B (zh) 用于无人驾驶方程式赛车锥桶识别和路径规划及控制方法
CN107590438A (zh) 一种智能辅助驾驶方法及系统
CN107481292A (zh) 车载摄像头的姿态误差估计方法和装置
CN109241856A (zh) 一种单目车载视觉系统立体目标检测方法
CN112347205B (zh) 一种车辆误差状态的更新方法和装置
US20220261590A1 (en) Apparatus, system and method for fusing sensor data to do sensor translation
CN113706633B (zh) 一种目标对象的三维信息确定方法和装置
CN117541655A (zh) 融合视觉语义消除radar建图z轴累积误差的方法
CN114219852A (zh) 一种用于自动驾驶车辆的多传感器标定方法及装置
CN117313828A (zh) 一种感知模型的迁移方法、装置、设备及介质
CN116912645A (zh) 融合纹理和几何特征的三维目标检测方法及装置
US20220261658A1 (en) Apparatus, system and method for translating sensor label data between sensor domains
CN117252914A (zh) 深度估计网络的训练方法、装置、电子设备及存储介质
CN114332187B (zh) 单目目标测距方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 310051 1st and 6th floors, no.451 Internet of things street, Binjiang District, Hangzhou City, Zhejiang Province

Applicant after: Zhejiang Zero run Technology Co.,Ltd.

Address before: 310051 1st and 6th floors, no.451 Internet of things street, Binjiang District, Hangzhou City, Zhejiang Province

Applicant before: ZHEJIANG LEAPMOTOR TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant