CN110363158B - 一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法 - Google Patents

一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法 Download PDF

Info

Publication number
CN110363158B
CN110363158B CN201910646175.2A CN201910646175A CN110363158B CN 110363158 B CN110363158 B CN 110363158B CN 201910646175 A CN201910646175 A CN 201910646175A CN 110363158 B CN110363158 B CN 110363158B
Authority
CN
China
Prior art keywords
millimeter wave
image
frame
neural network
wave radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910646175.2A
Other languages
English (en)
Other versions
CN110363158A (zh
Inventor
宋春毅
宋钰莹
徐志伟
赵自豪
陈钦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yantai Xin Yang Ju Array Microelectronics Co ltd
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN201910646175.2A priority Critical patent/CN110363158B/zh
Publication of CN110363158A publication Critical patent/CN110363158A/zh
Application granted granted Critical
Publication of CN110363158B publication Critical patent/CN110363158B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Remote Sensing (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法,毫米波雷达能够通过发射和接受毫米波获得物体的位置、速度等信息,相机能够获得物体的视觉图像,通过将毫米波雷达获得的位置信息映射到图像,再在图像特征图内圈定感兴趣区域并将感兴趣区域送入深度学习神经网络中进行处理,即能获得目标的识别和定位信息。本发明采用毫米波雷达和视觉处理相融合的方式,完成了目标检测和识别任务,借助深度学习神经网络技术,既缩短了定位物体的时间,又增加了识别的准确度。

Description

一种基于神经网络的毫米波雷达与视觉协同目标检测与识别 方法
技术领域
本发明涉及传感器融合进行目标识别和定位领域,具体地说是一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法。
背景技术
目前,公知的图像目标识别和定位算法主要是利用神经网络直接对图像进行处理,主要有RCNN系列,YOLO系列,SSD等。这些神经网络的处理方法主要分两种:一种是通过穷举搜索或者神经网络结构提取图像上的感兴趣区域,随后将感兴趣区域送入神经网络进行位置回归和种类识别;另一种是使用神经网络直接对整张图像中的目标位置和类别进行回归。前者获取感兴趣区域步骤占用大量时间,成为目标检测算法的主要时间瓶颈;后者在识别小物体时精度较低,容易产生漏检现象。
发明内容
针对现有单传感器进行图像目标识别和定位方法的不足,本发明提供了一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法,将毫米波雷达获得的位置信息映射到图像获得感兴趣区域,借助当前先进的深度学习图像处理技术,达到既快又准地检测图像中目标的位置和距离信息的目的。
本发明为实现上述目的所采用的技术方案是:
一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法,其特征在于:包括以下步骤:
S1:毫米波雷达扫描获得点云数据,相机获取视觉图像信息;
S2:将所述的图像信息缩放至256x256像素大小,并送入Darknet-53网络结构进行处理获得特征图;
S3:将毫米波点云映射到所述的S2的图像特征图中,得到每个毫米波点在图像特征图中的位置;
S4:设定先验框大小;
S5:在S3获得的每个位置上按照S4的所述的先验框大小划定感兴趣区域,并计算每个框的特征值;
S6:将S5的感兴趣区域送入神经网络Softmax层进行处理,获得图像中目标的定位和识别结果;
S7:对S6中获得的所有目标识别框进行非极大值抑制处理,获得最终目标定位框和每个框的识别结果。
进一步地,所述的S3的将毫米波点云映射到所述的S2的图像特征图中的具体步骤如下:
某毫米波点坐标为P=[X;Y;Z;1],其对应的图像坐标为p=[u;v],中间坐标值M=[a;b;c],此时图像和毫米波的大小为3x4标定矩阵为H,其中
M=HP
u=a/c
v=b/c
H即毫米波点云坐标系和相机图像坐标系间的空间标定矩阵,通过相机内参矩阵及两坐标系间的旋转平移关系即可确定。
图像到Darknet53最后一个特征图间的缩放倍数s,毫米波点P在特征图中的坐标为F,其中
F=p/s
进一步地,所述的先验框大小通过kmeans聚类算法对真实目标定位框进行聚类得到,具体步骤为:
S4.1:选用带有标注框作为真实值的检测数据集作为聚类原始数据,该检测集中的每一个真实值标框即为一个样本;
S4.2:首先选定k个框的高和宽作为聚类中心;
S4.3:通过下式计算每个标注框与每个聚类中心的距离d,并将每个标注框分配给距离d最近的聚类中心;
d=1–IOU
其中,IOU为所述的标注框与所述的聚类中心的左上角点重合后的交并比;
S4.4:所有标注框分配完毕后,对每个簇重新计算聚类中心,即求该簇中所有标注框的高和宽的平均值;
S4.5:重复S4.3-S4.4,直到聚类中心不再改变;最终聚类出的k个聚类中心的高和宽即为所述的先验框的大小。
进一步地,所述的S5的具体步骤如下:
S5.1:以S3获得的每个毫米波点在图像特征图中的坐标F为中心点,根据S4聚类出的先验框大小在图像特征图上圈定感兴趣区域;
S5.2:计算每个先验框单元网格的中心点位置;
S5.3:计算中心点的特征值,并将该值作为所在单元网格的特征值。
进一步地,所述的S5.3中,采用双线性插值的方法计算中心点的特征值。
本发明的有益效果是,
本发明采用传感器融合的方式,使用毫米波雷达获得的点云数据直接定位图像中的感兴趣区域,并借助深度学习神经网络对目标位置和种类进行进一步的回归。一方面利用毫米波提供的位置信息大大缩减了感兴趣区域的提取时间,另一方面保留了目标检测算法的精度,减少小物体漏检现象的产生。
附图说明
图1是本发明的方法流程图;
图2是DarkNet-53的网络结构图;
图3是毫米波点映射到图像特征图提取先验框的示意图;
图4是采用本发明的方法识别人的结果图。
具体实施方式
下面根据附图和优选实施例详细描述本发明,本发明的目的和效果将变得更加明白,应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1是本发明的算法流程图。
毫米波雷达发射高频毫米波,经过目标反射后被接收系统收集,通过测频来确定目标的距离,从而形成点云数据。将同一时刻相机捕捉到的图像数据缩放至256x256大小后,送入DarkNet-53网络结构中进行处理,得到大小为n×n×c的图像特征图。如图2是DarkNet-53的网络结构图。
接下来将点云数据和图像数据进行配准,首先利用工具对雷达和相机所处坐标系进行调整,使其坐标轴之间尽量相互平行,没有夹角误差,然后对相机的内外参以及两个坐标系之间的距离进行标定,最后根据图像坐标系与点云坐标系之间的关系,进行坐标轴转换,将毫米波点云坐标转换为图像坐标。
具体转换关系为:
(x,y,z,1)为点云坐标系下的坐标,(xc,yc,zc)为相机坐标系下的坐标,(u,v)为相应的图像坐标,dx,dy为像素的物理尺寸,f是焦距,(u0,v0)为相机光心在图像坐标系下的坐标,R和T为相机坐标系和点云坐标系之间的旋转和平移矩阵。则有等式:
Figure BDA0002133646420000041
得到毫米波点云在图像上的坐标后,接下来进一步求得毫米波点云在图像特征图上的坐标。s为经过DarkNet-53后特征图相比于图像的缩放倍数,则毫米波点(x,y,z,1)在特征图上的坐标为(u/s,v/s,1)
选用有标注框作为真实值的检测数据集作为聚类原始数据,该检测集中的每一个真实值标框即为一个样本,使用两个标注框间的交并比作为距离衡量标准,kmeans作为聚类算法,对所有真实标注框进行聚类,聚类中心即为本算法的先验框的大小。
由上述步骤已得毫米波点在图像特征图的位置以及先验框的大小,如图3是毫米波点映射到图像特征图提取先验框的示意图,其中8x8网格表示图像特征图,2x2网格表示以毫米波映射点为中心,聚类出高和宽为框大小画出的先验框,计算每个先验框的网格中心点后,随后使用双线性插值法计算该位置的特征值,并把该值作为中心点所在网格的特征值。
将上述步骤中获得的框送入深度学习神经网络中的Softmax层进行回归,获得每个框的准确位置和类别,随后通过极大值抑制算法对所有标注框进行筛选,获得最终结果,即图像上所有目标的定位和识别结果,如图4所示,给出了识别人的结果。
本领域普通技术人员可以理解,以上所述仅为发明的优选实例而已,并不用于限制发明,尽管参照前述实例对发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实例记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在发明的精神和原则之内,所做的修改、等同替换等均应包含在发明的保护范围之内。

Claims (4)

1.一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法,其特征在于:包括以下步骤:
S1:毫米波雷达扫描获得点云数据,相机获取视觉图像信息;
S2:将所述的图像信息缩放至256x256像素大小,并送入Darknet-53网络结构进行处理获得特征图;
S3:将毫米波点云映射到所述的S2的图像特征图中,得到每个毫米波点在图像特征图中的位置;
S4:设定先验框大小;所述的先验框大小通过kmeans聚类算法对真实目标定位框进行聚类得到,具体步骤为:
S4.1: 选用带有标注框作为真实值的检测数据集作为聚类原始数据,该检测集中的每一个真实值标框即为一个样本;
S4.2: 首先选定k个框的高和宽作为聚类中心;
S4.3: 通过下式计算每个标注框与每个聚类中心的距离d,并将每个标注框分配给距离d最近的聚类中心;
d =1–IOU
其中,IOU为所述的标注框与所述的聚类中心的左上角点重合后的交并比;
S4.4:所有标注框分配完毕后,对每个簇重新计算聚类中心,即求该簇中所有标注框的高和宽的平均值;
S4.5:重复S4.3-S4.4,直到聚类中心不再改变;最终聚类出的k个聚类中心的高和宽即为所述的先验框的大小;
S5:在S3获得的每个位置上按照S4的所述的先验框大小划定感兴趣区域,并计算每个框的特征值;
S6:将S5的感兴趣区域送入神经网络Softmax层进行处理,获得图像中目标的定位和识别结果;
S7:对S6中获得的所有目标识别框进行非极大值抑制处理,获得最终目标定位框和每个框的识别结果。
2.根据权利要求1所述的基于神经网络的毫米波雷达与视觉协同目标检测与识别方法,其特征在于:所述的S3的将毫米波点云映射到所述的S2的图像特征图中的具体步骤如下:
某毫米波点坐标为P=[X;Y;Z;1],其对应的图像坐标为p=[u;v],中间坐标值M=[a;b;c],此时图像和毫米波的大小为3x4标定矩阵为H,其中
M = HP
u = a/c
v = b/c
H即毫米波点云坐标系和相机图像坐标系间的空间标定矩阵,通过相机内参矩阵及两坐标系间的旋转平移关系即可确定;图像到Darknet53最后一个特征图间的缩放倍数s,毫米波点P在特征图中的坐标为F,其中
F = p/s。
3.根据权利要求1所述的基于神经网络的毫米波雷达与视觉协同目标检测与识别方法,其特征在于,所述的S5的具体步骤如下:
S5.1:以S3获得的每个毫米波点在图像特征图中的坐标F为中心点,根据S4聚类出的先验框大小在图像特征图上圈定感兴趣区域;
S5.2:计算每个先验框单元网格的中心点位置;
S5.3:计算中心点的特征值,并将该值作为所在单元网格的特征值。
4.根据权利要求1所述的基于神经网络的毫米波雷达与视觉协同目标检测与识别方法,其特征在于,所述的S5.3中,采用双线性插值的方法计算中心点的特征值。
CN201910646175.2A 2019-07-17 2019-07-17 一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法 Active CN110363158B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910646175.2A CN110363158B (zh) 2019-07-17 2019-07-17 一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910646175.2A CN110363158B (zh) 2019-07-17 2019-07-17 一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法

Publications (2)

Publication Number Publication Date
CN110363158A CN110363158A (zh) 2019-10-22
CN110363158B true CN110363158B (zh) 2021-05-25

Family

ID=68220139

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910646175.2A Active CN110363158B (zh) 2019-07-17 2019-07-17 一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法

Country Status (1)

Country Link
CN (1) CN110363158B (zh)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111104960B (zh) * 2019-10-30 2022-06-14 武汉大学 一种基于毫米波雷达和机器视觉的手语识别方法
CN112819896B (zh) * 2019-11-18 2024-03-08 商汤集团有限公司 传感器的标定方法及装置、存储介质和标定系统
CN111080693A (zh) * 2019-11-22 2020-04-28 天津大学 一种基于YOLOv3的机器人自主分类抓取方法
CN111160120A (zh) * 2019-12-11 2020-05-15 重庆邮电大学 基于迁移学习的Faster R-CNN物品检测方法
CN111008671B (zh) * 2019-12-23 2023-08-18 Oppo广东移动通信有限公司 姿势识别方法和装置、电子设备、计算机可读存储介质
CN111198496A (zh) * 2020-01-03 2020-05-26 浙江大学 一种目标跟随机器人及跟随方法
CN113255397A (zh) * 2020-02-10 2021-08-13 富士通株式会社 目标检测方法和装置
CN111652097B (zh) * 2020-05-25 2023-04-18 南京莱斯电子设备有限公司 一种图像毫米波雷达融合目标检测方法
CN111914939B (zh) * 2020-08-06 2023-07-28 平安科技(深圳)有限公司 识别模糊图像的方法、装置、设备及计算机可读存储介质
CN112526490B (zh) * 2020-12-11 2021-12-03 上海大学 一种基于计算机视觉的水下小目标声呐探测系统与方法
CN112684424B (zh) * 2020-12-30 2022-08-16 同济大学 一种毫米波雷达与相机的自动标定方法
CN112991455B (zh) * 2021-02-01 2022-06-17 武汉光庭信息技术股份有限公司 一种点云与图片融合标注的方法及系统
CN112801036A (zh) * 2021-02-25 2021-05-14 同济大学 一种目标识别方法、训练方法、介质、电子设备及汽车
CN112801928B (zh) * 2021-03-16 2022-11-29 昆明理工大学 一种基于注意力机制的毫米波雷达与视觉传感器融合方法
CN113222111A (zh) * 2021-04-01 2021-08-06 上海智能网联汽车技术中心有限公司 适应全天候环境的自动驾驶4d感知方法、系统及介质
CN113655477B (zh) * 2021-06-11 2023-09-01 成都圭目机器人有限公司 一种采用浅层对地雷达自动检测地质病害的方法
CN113466853B (zh) * 2021-06-24 2024-05-10 山东科技大学 超前液压支架群组移架前的障碍检测装置
CN113935379B (zh) * 2021-10-15 2024-02-27 中国科学技术大学 一种基于毫米波雷达信号的人体活动分割方法及系统
CN114792343B (zh) * 2022-06-21 2022-09-30 阿里巴巴达摩院(杭州)科技有限公司 图像获取设备的标定方法、获取图像数据的方法、装置
CN115631483B (zh) * 2022-12-08 2023-05-05 奥特贝睿(天津)科技有限公司 一种基于深度学习的毫米波雷达和相机融合方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104637059A (zh) * 2015-02-09 2015-05-20 吉林大学 基于毫米波雷达和机器视觉的夜间前方车辆检测方法
CN107808143A (zh) * 2017-11-10 2018-03-16 西安电子科技大学 基于计算机视觉的动态手势识别方法
CN109100741A (zh) * 2018-06-11 2018-12-28 长安大学 一种基于3d激光雷达及图像数据的目标检测方法
CN109932730A (zh) * 2019-02-22 2019-06-25 东华大学 基于多尺度单极三维检测网络的激光雷达目标检测方法
CN109948661A (zh) * 2019-02-27 2019-06-28 江苏大学 一种基于多传感器融合的3d车辆检测方法
CN109948523A (zh) * 2019-03-18 2019-06-28 中国汽车工程研究院股份有限公司 一种基于视频与毫米波雷达数据融合的目标物识别方法及其应用

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104637059A (zh) * 2015-02-09 2015-05-20 吉林大学 基于毫米波雷达和机器视觉的夜间前方车辆检测方法
CN107808143A (zh) * 2017-11-10 2018-03-16 西安电子科技大学 基于计算机视觉的动态手势识别方法
CN109100741A (zh) * 2018-06-11 2018-12-28 长安大学 一种基于3d激光雷达及图像数据的目标检测方法
CN109932730A (zh) * 2019-02-22 2019-06-25 东华大学 基于多尺度单极三维检测网络的激光雷达目标检测方法
CN109948661A (zh) * 2019-02-27 2019-06-28 江苏大学 一种基于多传感器融合的3d车辆检测方法
CN109948523A (zh) * 2019-03-18 2019-06-28 中国汽车工程研究院股份有限公司 一种基于视频与毫米波雷达数据融合的目标物识别方法及其应用

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
基于毫米波雷达与机器视觉信息融合的有轨电车障碍物检测;翟光耀;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20190115(第1期);C035-1658 *
基于毫米波雷达与视觉融合的前方车辆检测;刘雷;《中国优秀硕士学位论文全文数据库 工程科技||辑》;20190715(第7期);C035-185 *
基于视觉与雷达信息融合的智能车环境感知算法研究;莫春媚;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20190515(第5期);C035-361 *
机器视觉与毫米波雷达融合的前方车辆检测方法研究;谭力凡;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》;20180615;C035-112 *

Also Published As

Publication number Publication date
CN110363158A (zh) 2019-10-22

Similar Documents

Publication Publication Date Title
CN110363158B (zh) 一种基于神经网络的毫米波雷达与视觉协同目标检测与识别方法
CN111340797A (zh) 一种激光雷达与双目相机数据融合检测方法及系统
CN106529538A (zh) 一种飞行器的定位方法和装置
CN112346073A (zh) 一种动态视觉传感器与激光雷达数据融合方法
CN107392929B (zh) 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法
CN114693661A (zh) 一种基于深度学习的快速分拣方法
CN110889829A (zh) 一种基于鱼眼镜头的单目测距方法
CN109376641B (zh) 一种基于无人机航拍视频的运动车辆检测方法
CN113050074B (zh) 无人驾驶环境感知中相机与激光雷达标定系统及标定方法
CN114359181B (zh) 一种基于图像和点云的智慧交通目标融合检测方法及系统
CN111292369B (zh) 激光雷达的伪点云数据生成方法
CN111241988A (zh) 一种结合定位信息的大场景内运动目标检测识别方法
CN110197185B (zh) 一种基于尺度不变特征变换算法监测桥下空间的方法和系统
CN115376109B (zh) 障碍物检测方法、障碍物检测装置以及存储介质
CN113569647B (zh) 一种基于ais的船舶高精度坐标映射方法
CN114089329A (zh) 一种基于长短焦相机与毫米波雷达融合的目标检测方法
CN111239684A (zh) 一种基于YoloV3深度学习的双目快速距离测量方法
CN111830470A (zh) 联合标定方法及装置、目标对象检测方法、系统及装置
CN113313047A (zh) 一种基于车道结构先验的车道线检测方法及系统
CN116778288A (zh) 一种多模态融合目标检测系统及方法
CN113744315A (zh) 一种基于双目视觉的半直接视觉里程计
CN110007764B (zh) 一种手势骨架识别方法、装置、系统及存储介质
CN114722914A (zh) 基于双目视觉和语义分割网络的大田环境障碍物检测方法
CN112924037A (zh) 基于图像配准的红外体温检测系统及检测方法
CN117333846A (zh) 恶劣天气下基于传感器融合和增量学习的检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230316

Address after: 316000 Room 202, 11 Baichuan Road, Lincheng street, Dinghai District, Zhoushan City, Zhejiang Province (centralized office)

Patentee after: ZHEJIANG JISU HEXIN TECHNOLOGY CO.,LTD.

Address before: 310058 Yuhang Tang Road, Xihu District, Hangzhou, Zhejiang 866

Patentee before: ZHEJIANG University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230703

Address after: Plant 1, No. 13, Guiyang Avenue, Yantai Economic and Technological Development Zone, Shandong Province, 264000

Patentee after: Yantai Xin Yang Ju Array Microelectronics Co.,Ltd.

Address before: 316000 Room 202, 11 Baichuan Road, Lincheng street, Dinghai District, Zhoushan City, Zhejiang Province (centralized office)

Patentee before: ZHEJIANG JISU HEXIN TECHNOLOGY CO.,LTD.

TR01 Transfer of patent right