CN112017188A - 一种空间非合作目标语义识别与重构方法 - Google Patents

一种空间非合作目标语义识别与重构方法 Download PDF

Info

Publication number
CN112017188A
CN112017188A CN202010940953.1A CN202010940953A CN112017188A CN 112017188 A CN112017188 A CN 112017188A CN 202010940953 A CN202010940953 A CN 202010940953A CN 112017188 A CN112017188 A CN 112017188A
Authority
CN
China
Prior art keywords
point cloud
dimensional
cooperative target
model
reconstruction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010940953.1A
Other languages
English (en)
Other versions
CN112017188B (zh
Inventor
牟金震
刘宗明
曹姝清
张硕
温凯瑞
武海雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Aerospace Control Technology Institute
Original Assignee
Shanghai Aerospace Control Technology Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Aerospace Control Technology Institute filed Critical Shanghai Aerospace Control Technology Institute
Priority to CN202010940953.1A priority Critical patent/CN112017188B/zh
Publication of CN112017188A publication Critical patent/CN112017188A/zh
Application granted granted Critical
Publication of CN112017188B publication Critical patent/CN112017188B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

一种空间非合作目标语义识别与重构方法,将二维深度学习技术与三维点云识别技术相结合,在二维图像上确定物体的边界框,然后投影到三维模型中,对三维模型中的点云进行可拆卸部位分割,更新重建模型中可拆卸部位的点云信息和从属类别,最终完成抓捕部位和可拆卸部件的识别、测量和三维重构。本发明解决了空间非合作目标的非结构特征的目标识别难题,为动力学参数智能感知和机器人辅助自学习在轨抓捕和精细操作奠定基础,对空间非合作目标的在轨服务设工程应用具有重要的指导意义。

Description

一种空间非合作目标语义识别与重构方法
技术领域
本发明涉及一种空间非合作目标语义识别与重构方法。
背景技术
飞行器监视跟踪、柔性捕获和部件拆卸等典型空间在轨任务中,需要完成非合作目标、抓捕部位和可拆卸部件的识别、测量和三维重构,这会面临两个方面的问题:一是空间光照环境复杂,会受到杂散光干扰、视线遮挡等因素影响,测量距离和视角不同对图像造成干扰甚至导致图像严重失真,传统图像处理算法难以保证目标识别、测量和三维重构的准确率;二是非合作目标的外形及附属设备多种多样,没有统一的模式,操作部位大小、尺寸、安装位置差别巨大,传统方法难以进行普适性的识别、测量和三维重构,同时传统的方法对整个测量场景的覆盖较低。
发明内容
本发明的目的在于解决传统目标识别难以解决由于空间光照环境多变、观测距离和观测角度变化以及部分遮挡等因素导致的识别难题,解决传统目标识别、测量和三维重构算法中存在的算法鲁棒性差、泛化性差以及难以获得更深层次语义信息的问题。
为了达到上述目的,本发明提供一种空间非合作目标语义识别与重构方法,包含如下步骤:
步骤S1、进行非合作目标的基础模型重构;
步骤S2、进行非合作目标的三维点云分割;
步骤S3、进行非合作目标的语义稠密重构。
所述基础模型重构的方法包含:利用ORB-SLAM2算法估计RGB-D摄像头位姿和预先构建非合作目标的稀疏特征模型,并将深度图像对应的点云依据摄像头当前位姿投射到全局坐标,融合稀疏特征模型从得到非合作目标的基础模型。
所述三维点云分割的方法包含:使用FPN网络在ORB-SLAM2的关键帧二维图像上找到可拆卸部件边界框,利用相机的内参数信息将这个二维边界框投射到基础模型中并构成一个点云椎形体,利用PointNet对椎体中的点云进行分割,以此确定可拆卸部件在基础模型中的位置。
所述语义稠密重构的方法包含:基于最近邻方法对在基础模型中确定的拆卸部件进行周围临近数据关联,进一步精确当前拆卸部件在基础模型中的位置,进而添加或更新基础模型中拆卸部件的点云信息和从属类别的置信值。
本发明具有以下优点和有益效果:面向在轨服务的空间非结构环境目标识别任务中,通过基于深度学习的空间非结构复杂环境目标识别、目标检测、语义分割、三维重构等技术研究,解决传统目标识别难以解决由于空间光照环境多变、观测距离和观测角度变化以及部分遮挡等因素导致的识别难题,解决传统目标识别、测量和三维重构算法中存在的算法鲁棒性差、泛化性差以及难以获得更深层次语义信息的问题,系统最终输出的参数包括非合作目标的形状大小、当前的位姿、线速度、角速度,解决了空间非合做目标的非结构特征的目标识别难题,为动力学参数智能感知和机器人辅助自学习在轨抓捕和精细操作奠定基础,对空间非合作目标的在轨服务设工程应用具有重要的指导意义。
附图说明
图1是本发明提供的一种空间非合作目标语义识别与重构方法的流程图。
具体实施方式
以下根据图1,具体说明本发明的较佳实施例。
深度学习方法通过对复杂光照环境下操作部位的识别和场景理解训练,提升空间非结构复杂环境下目标识别、测量和三维重构的泛化性和鲁棒性。针对三维重建与三维识别过程中存在的计算量大、抗干扰性不强、识别信息不丰富以及效率低等问题。利用RGB-D数据作为输入信息来实现三维重建。将二维深度学习技术与三维点云识别技术相结合,在二维图像上确定物体的边界框,然后投影到三维空间,对点云进行对象分割,更新模型中目标物体的点云信息和从属类别,最终的模型是由对象的点云和背景构成的语义模型。3D点云检测过程中,引入对象的概念,并以对象为单位构建模型,比基于纯语义分割的语义模型高了一级。
如图1所示,本发明提供一种空间非合作目标语义识别与重构方法,包含以下步骤:
步骤S1、非合作目标的基础模型重构:利用已有的ORB-SLAM2算法初步估计RGB-D摄像头位姿和预先构建非合作目标的稀疏特征模型,并将深度图像对应的点云依据摄像头当前位姿投射到全局坐标,融合稀疏特征模型从得到非合作目标的基础模型。
步骤S2、非合作目标的三维点云分割:使用已有FPN网络在ORB-SLAM2的关键帧二维图像上找到可拆卸部件边界框,利用相机的内参数信息将这个二维边界框投射到基础模型中并构成一个点云椎形体,利用PointNet对椎体中的点云进行分割,以此确定可拆卸部件在基础模型中的位置。
步骤S3、非合作目标的识别与稠密重构:基于已有的最近邻方法对上一步骤确定的拆卸部件进行周围临近数据关联,进一步精确当前拆卸部件在模型中的位置,进而添加或更新模型中拆卸部件的点云信息和从属类别的置信值。
进一步,所述的步骤S1中,主要利用ORB-SLAM2每一帧的RGB-D图像,建立无语义的基础模型,并利用每一帧间的特征临近关系来估计相机位姿。采用捆集优化方法,优化位姿估计的累计误差与基础模型的重建精度。
模型基础重构系统主要并行线程:
(1)跟踪:从相机获取的当前帧图像中提取ORB特征,根据上一帧中的相似ORB特征点位置关系姿与相机的内参估计当前帧的ORB特征位姿,或者通过全局重定位初始化位姿,然后跟踪已经重建的局部模型,优化位姿,再根据设定帧的临近系数来确定新的关键帧是否需要插入;将当前帧已经确定位姿的ORB特征的通过三角映射投影到三维空间形成三维点云,搜索所有的三维点云形成局部模型。
(2)局部模型构建:通过新的关键帧的不断插入,通过捆集优化对插入的关键帧进行筛选,去除多余的关键帧。经过筛选的关键帧继续通过三角映射投影到局部模型中,更新局部模型。
(3)回环检测:确定新插入的关键帧是否已经重复。当新的关键帧已经是重复帧时,这时候形成一个回环。在形成回环过程中,由于累计帧的投影误差与ORB特征估计的累计误差不断增加,回环检测通过执行位姿图优化更正漂移误差。回环检测主要包括回环信息的检测与确认、修正和优化位姿图。
(4)全局捆集优化:在回环检测优化之后,进一步计算精确模型最优结构。全局捆集优化主要用在跟踪线程中使用捆集优化相机位姿、优化关键帧和局部模型、在回环检测优化之后继续优化所有关键帧和点。当出现跟踪失败,全局捆集优化利用基础模型已经存储的ORB特征进行重定位。完成全局捆集优化,非合作目标的基础模型重构完成。
所述的步骤S2中,为实现对基础模型中的点云进行分类或预测点云中每个点的语义类实现拆卸部件检测,必须解决一个问题,即如何在基础模型中有效地确定拆卸部件的可能位置。按照降维原理缩小搜索空间,利用成熟的二维目标检测来实现三维目标检测。首先使用二维图像信息以及FPN网络在S1步骤中ORB-SLAM2当前帧的二维图像上找到拆卸部件的边界框,类别标签和置信度。其次使用相机的内参数信息将这个二维边界框投射到基础模型中,形成一个椎体,然后根据距离信息寻找椎体里面包含的拆卸部件的点集,再使用PointNet网络对锥形体中的对应点云进行物体分割,从而使得分割的速度更快、信息更丰富。步骤S2直接以步骤S1的基础模型为输入,实现三维模型场下的拆卸部件的精确分割。
基于基础模型的拆卸部件分割的基本过程是:
(1)深度神经网络设计
首先利用常规卷积神经网络对对关键帧图像中的目标进行分类,制定二维边界框,确定目标的类别和置信度。
将关键帧图像与其对应的三维图像对齐,其次使用相机的内参数信息将这个二维边界框投射到基础模型中。
最后,在三维模型中估计三维边界框。收集椎体内的所有点以形成椎体点云。椎体可以朝向许多不同的方向,这导致点云的放置的大的变化。因此,通过将椎体朝向中心视图旋转来使椎体归一化,使得椎体的中心轴线与图像平面正交,二维边界框所对应的区域即为三维边界框。
(2)三维点云分割
利用已有的PointNet网络在椎体中预测每个点的概率分数,表示为该点属于拆卸部件的可能性。排序所有点的概率分数,提取概率分数大于设定阈值的点,完成拆卸部件的分割。
所述的步骤S3中,基于最近邻方法的物体数据关联,以确定当前物体和模型中物体之间的对应性,进而添加或更新模型中目标物体的点云信息和从属类别置信值等数据。
所述的步骤S3中,基于已有的最近邻方法对上一步骤确定的拆卸部件进行周围临近数据关联,进一步精确当前拆卸部件在模型中的位置,进而添加或更新模型中拆卸部件的点云信息和从属类别的置信值。步骤S2中给每个点的类别,但是在仅仅分出类别还不利于对拆卸部件快速识别。这一部分主要完成数据关联和语义模型生成,最终的稠密模型是由拆卸部件的点云和背景构成的语义模型。
在将椎体中的点云分配给拆卸部件后,数据关联步骤确定拆卸部件是否已经在模型中,或者是否需要更新一个新的模型将拆卸部件添加。因此,这一部分主要完成周围数据关联和语义地图生成。这一部分,给出了点云的对象概念,其存储了每一个拆卸部件的三维点云,最终的模型是由拆卸部件的点云和背景构成的语义模型。对象是一个高层的抽象概念,维护的是拆卸部件的几何信息。点云是它的一个属性,其包含对应点云、类别的累积概率、三维边界框、基础模块的位姿索引。步骤S2完成拆卸部件点云分割以后,对于当前帧识别到的物体,若已存在,就把它加进去调整,若不存在,则插入。
更新拆卸部件的累计概率。就是简单的累加,把新加入的拆卸部件类别的置信度加在累计置信度上。最终的语义稠密重构包括:1、关键帧的点云数据;2、地图中各物体的3D点云分割及其所对应关键帧关系;3、语义信息。
本发明具有以下优点和有益效果:面向在轨服务的空间非结构环境目标识别任务中,通过基于深度学习的空间非结构复杂环境目标识别、目标检测、语义分割、三维重构等技术研究,解决传统目标识别难以解决由于空间光照环境多变、观测距离和观测角度变化以及部分遮挡等因素导致的识别难题,解决传统目标识别、测量和三维重构算法中存在的算法鲁棒性差、泛化性差以及难以获得更深层次语义信息的问题,系统最终输出的参数包括非合作目标的形状大小、当前的位姿、线速度、角速度,解决了空间非合做目标的非结构特征的目标识别难题,为动力学参数智能感知和机器人辅助自学习在轨抓捕和精细操作奠定基础,对空间非合作目标的在轨服务设工程应用具有重要的指导意义。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。

Claims (4)

1.一种空间非合作目标语义识别与重构方法,其特征在于,包含如下步骤:
步骤S1、进行非合作目标的基础模型重构;
步骤S2、进行非合作目标的三维点云分割;
步骤S3、进行非合作目标的语义稠密重构。
2.如权利要求1所述的空间非合作目标语义识别与重构方法,其特征在于,所述基础模型重构的方法包含:利用ORB-SLAM2算法估计RGB-D摄像头位姿和预先构建非合作目标的稀疏特征模型,并将深度图像对应的点云依据摄像头当前位姿投射到全局坐标,融合稀疏特征模型从得到非合作目标的基础模型。
3.如权利要求2所述的空间非合作目标语义识别与重构方法,其特征在于,所述三维点云分割的方法包含:使用FPN网络在ORB-SLAM2的关键帧二维图像上找到可拆卸部件边界框,利用相机的内参数信息将这个二维边界框投射到基础模型中并构成一个点云椎形体,利用PointNet对椎体中的点云进行分割,以此确定可拆卸部件在基础模型中的位置。
4.如权利要求3所述的空间非合作目标语义识别与重构方法,其特征在于,所述语义稠密重构的方法包含:基于最近邻方法对在基础模型中确定的拆卸部件进行周围临近数据关联,进一步精确当前拆卸部件在基础模型中的位置,进而添加或更新基础模型中拆卸部件的点云信息和从属类别的置信值。
CN202010940953.1A 2020-09-09 2020-09-09 一种空间非合作目标语义识别与重构方法 Active CN112017188B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010940953.1A CN112017188B (zh) 2020-09-09 2020-09-09 一种空间非合作目标语义识别与重构方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010940953.1A CN112017188B (zh) 2020-09-09 2020-09-09 一种空间非合作目标语义识别与重构方法

Publications (2)

Publication Number Publication Date
CN112017188A true CN112017188A (zh) 2020-12-01
CN112017188B CN112017188B (zh) 2024-04-09

Family

ID=73522194

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010940953.1A Active CN112017188B (zh) 2020-09-09 2020-09-09 一种空间非合作目标语义识别与重构方法

Country Status (1)

Country Link
CN (1) CN112017188B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114549592A (zh) * 2022-04-24 2022-05-27 之江实验室 一种非合作抛体的轨迹预测与捕获方法和装置
CN114897448A (zh) * 2022-07-12 2022-08-12 成都飞机工业(集团)有限责任公司 飞机活动部件评估方法、装置、存储介质及设备
CN116681733A (zh) * 2023-08-03 2023-09-01 南京航空航天大学 一种空间非合作目标近距离实时位姿跟踪方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596974A (zh) * 2018-04-04 2018-09-28 清华大学 动态场景机器人定位建图系统及方法
CN108734737A (zh) * 2018-06-14 2018-11-02 哈尔滨工业大学 基于视觉slam估计空间旋转非合作目标转轴的方法
CN109658449A (zh) * 2018-12-03 2019-04-19 华中科技大学 一种基于rgb-d图像的室内场景三维重建方法
WO2019140155A1 (en) * 2018-01-12 2019-07-18 Kineticor, Inc. Systems, devices, and methods for tracking and/or analyzing subject images and/or videos
CN110097553A (zh) * 2019-04-10 2019-08-06 东南大学 基于即时定位建图与三维语义分割的语义建图系统
CN110223298A (zh) * 2019-05-27 2019-09-10 东南大学 基于点云局部结构的语义分割改进算法
CN110243370A (zh) * 2019-05-16 2019-09-17 西安理工大学 一种基于深度学习的室内环境三维语义地图构建方法
CN111209915A (zh) * 2019-12-25 2020-05-29 上海航天控制技术研究所 一种基于深度学习的三维图像同步识别和分割方法
CN111462135A (zh) * 2020-03-31 2020-07-28 华东理工大学 基于视觉slam与二维语义分割的语义建图方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019140155A1 (en) * 2018-01-12 2019-07-18 Kineticor, Inc. Systems, devices, and methods for tracking and/or analyzing subject images and/or videos
CN108596974A (zh) * 2018-04-04 2018-09-28 清华大学 动态场景机器人定位建图系统及方法
CN108734737A (zh) * 2018-06-14 2018-11-02 哈尔滨工业大学 基于视觉slam估计空间旋转非合作目标转轴的方法
CN109658449A (zh) * 2018-12-03 2019-04-19 华中科技大学 一种基于rgb-d图像的室内场景三维重建方法
CN110097553A (zh) * 2019-04-10 2019-08-06 东南大学 基于即时定位建图与三维语义分割的语义建图系统
CN110243370A (zh) * 2019-05-16 2019-09-17 西安理工大学 一种基于深度学习的室内环境三维语义地图构建方法
CN110223298A (zh) * 2019-05-27 2019-09-10 东南大学 基于点云局部结构的语义分割改进算法
CN111209915A (zh) * 2019-12-25 2020-05-29 上海航天控制技术研究所 一种基于深度学习的三维图像同步识别和分割方法
CN111462135A (zh) * 2020-03-31 2020-07-28 华东理工大学 基于视觉slam与二维语义分割的语义建图方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
YING HE ET AL.: "Non-cooperative spacecraft pose tracking based on point cloud feature", 《ACTA ASTRONAUTICA》 *
YIPENG LI: "Using consecutive point clouds for pose and motion estimation of tumbling non-cooperative target", 《ADVANCES IN SPACE RESEARCH》 *
唐侃 等: "基于全局和部件特征融合的空间非合作目标识别", 《第一届中国空天安全会议 》 *
李喆武 等: "空间非合作目标的运动参数估计与三维重建", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
李磊: "基于点云的非合作航天器自主识别与位姿估计研究", 《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114549592A (zh) * 2022-04-24 2022-05-27 之江实验室 一种非合作抛体的轨迹预测与捕获方法和装置
CN114897448A (zh) * 2022-07-12 2022-08-12 成都飞机工业(集团)有限责任公司 飞机活动部件评估方法、装置、存储介质及设备
CN114897448B (zh) * 2022-07-12 2022-12-13 成都飞机工业(集团)有限责任公司 飞机活动部件评估方法、装置、存储介质及设备
CN116681733A (zh) * 2023-08-03 2023-09-01 南京航空航天大学 一种空间非合作目标近距离实时位姿跟踪方法
CN116681733B (zh) * 2023-08-03 2023-11-07 南京航空航天大学 一种空间非合作目标近距离实时位姿跟踪方法

Also Published As

Publication number Publication date
CN112017188B (zh) 2024-04-09

Similar Documents

Publication Publication Date Title
CN111563442B (zh) 基于激光雷达的点云和相机图像数据融合的slam方法及系统
CN108564616B (zh) 快速鲁棒的rgb-d室内三维场景重建方法
CN107392964B (zh) 基于室内特征点和结构线结合的室内slam方法
CN109059895B (zh) 一种基于手机摄像头和传感器的多模态室内测距及定位方法
CN110533722A (zh) 一种基于视觉词典的机器人快速重定位方法及系统
CN112017188A (zh) 一种空间非合作目标语义识别与重构方法
CN109558879A (zh) 一种基于点线特征的视觉slam方法和装置
CN103914685B (zh) 一种基于广义最小团图和禁忌搜索的多目标跟踪方法
CN110472553A (zh) 图像和激光点云融合的目标追踪方法、计算装置和介质
CN111781608A (zh) 一种基于fmcw激光雷达的运动目标检测方法及系统
CN104036524A (zh) 一种改进sift算法的快速目标跟踪方法
CN106815578A (zh) 一种基于深度运动图‑尺度不变特征变换的手势识别方法
CN111160291B (zh) 基于深度信息与cnn的人眼检测方法
CN109087323A (zh) 一种基于精细cad模型的图像车辆三维姿态估计方法
Akkaladevi et al. Tracking multiple rigid symmetric and non-symmetric objects in real-time using depth data
CN103853794B (zh) 一种基于部件关联的行人检索方法
Win et al. Real-time human motion detection, tracking and activity recognition with skeletal model
CN116449384A (zh) 基于固态激光雷达的雷达惯性紧耦合定位建图方法
Cui et al. Dense depth-map estimation based on fusion of event camera and sparse LiDAR
CN116109601A (zh) 一种基于三维激光雷达点云的实时目标检测方法
CN114689038A (zh) 基于机器视觉的果实检测定位与果园地图构建方法
Zheng et al. I2P-Rec: Recognizing Images on Large-Scale Point Cloud Maps Through Bird's Eye View Projections
Songhui et al. Objects detection and location based on mask RCNN and stereo vision
Liu et al. Deep learning of directional truncated signed distance function for robust 3D object recognition
CN112613472B (zh) 一种基于深度搜索匹配的行人检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant