CN109726692A - 基于深度学习的高清摄像头3d目标检测系统 - Google Patents
基于深度学习的高清摄像头3d目标检测系统 Download PDFInfo
- Publication number
- CN109726692A CN109726692A CN201811652842.XA CN201811652842A CN109726692A CN 109726692 A CN109726692 A CN 109726692A CN 201811652842 A CN201811652842 A CN 201811652842A CN 109726692 A CN109726692 A CN 109726692A
- Authority
- CN
- China
- Prior art keywords
- definition camera
- processing unit
- image
- deep learning
- detection system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
本发明公开了基于深度学习的高清摄像头3D目标检测系统,包括车辆传感器装置、硬件模块以及处理单元,所述车辆传感器装置包括高清摄像头,所述硬件模块包括电源电路、通信电路、数据格式转换电路、中央处理器和存储电路,高清摄像头与中央处理器通过电性连接,所述处理单元包括图像采集单元、特征提取单元、数据处理单元和结果输出。该基于深度学习的高清摄像头3D目标检测系统,图像采集单元主要通过高清摄像头采集图像信息,模型训练单元通过引入自动驾驶数据集对图像识别模型进行评估和校正,图像处理单元根据高清摄像头三维目标识别算法进行目标识别,数据数据模块用于将最终的得到的信息传递给自动驾驶终端。
Description
技术领域
本发明涉及智能汽车技术领域,具体为基于深度学习的高清摄像头3D目标检测系统。
背景技术
自动驾驶系统需要传感器对前方的前方环境进行三维重建,对被测物体进行识别判断,构建一个道路环境信息的三维立体位置关系图,它的成功与否取决于它在其周围环境中检测和定位对象的能力,其预测、规避和路径规划都依赖于对场景中其他实体的三维位置和尺寸的检测。这使得三维包围盒检测技术成为自动驾驶系统中计算机视觉识别的一个重要问题。主流的自动驾驶系统构架中多数采用了用激光雷达回波形成的激光雷达点云进行三维目标检测的方法,但是激光雷达云图没有目标位置的绝对深度信息,这种纯图像的方法性能上存在滞后性。
目前的激光雷达成本很高,单个激光雷达点云密度稀疏其需要多传感器冗余,这进一步推动了自动驾驶方案成本增高,使其难以在市场上推广普及,因需要一种更精确性价比更高的的三维目标检测系统。因此本发明提出了一种通过低成本高清摄像头进行目标3D检测的装置。
发明内容
本发明的目的在于提供基于深度学习的高清摄像头3D目标检测系统,以解决传统自动驾驶系统因采用激光雷达导致的成本过高无法市场推广的问题。
为实现上述目的,本发明提供如下技术方案:基于深度学习的高清摄像头3D目标检测系统,包括车辆传感器装置、硬件模块以及数据处理模块;
所述车辆传感器装置包括高清摄像头;
所述硬件模块包括电源电路、通信电路、数据格式转换电路、中央处理器和存储电路,高清摄像头与中央处理器通过电路连接;
所述数据处理模块包括图像采集单元、模型训练单元、特征提取单元、图像处理单元和结果输出单元;
所述图像采集单元通过高清摄像头采集原始输入图像,模型训练单元通过引入自动驾驶数据集对原始输入图像的识别模型进行评估和校正,特征提取单元从图像采集单元获取原始输入图像并生成多尺度二维特征映射,图像处理单元根据高清摄像头三维目标识别算法进行目标识别,结果输出单元用于将最终得到的信息传递给自动驾驶终端;
所述特征提取单元从原始输入图像中生成多尺度二维特征映射,用平面f(u,v)∈Rn表示,Rn代表n维空间;其中(u,v)是这个二维特征映射的平面上的特征点,特征映射对图像中低层结构的信息进行编码,所述低层结构的信息构成训练网络用于构建场景隐式三维表示的基本组件;
通过正投影鸟瞰转换将f(u,v)∈Rn转换为一个三维特征图,用s(x,y,z)∈Rn表示,其中(x,y,z)是三维空间中的点;所述三维特征图定义了在一个由均匀间隔组成的三维空间里,用矩形框表示任意一个大小为r的立方体,所述矩形框的对角坐标分别为(a1,b1)和(a2,b2),所述矩形框表示的立方体的长为W、宽为D、高为H,并且有:
其中f为高清摄像头的焦距,(ca,cb)为原点;
将图像f(a,b)∈Rn投影的包围框进行平均化,将每一个特征分配到s(x,y,z)∈Rn中适当的位置:
将生成的三维特征映射g(x,y,z),将一组学习到的权值矩阵M(y)与s(x,y,z)相乘后沿垂直轴累加,得到正交特征图:
式中:B(x,z)为三维映射在地平面的投影;
采用积分图像的快速平均池化:
F(u,v)=f(a,b)F(a-1,b)+F(a,b-1)-F(a-1,b-1)
图像置信度N(x,z):
式中:N(x,z)是一个光滑函数,它表示存在一个以(x,y0,z)为中心的边界盒的概率,其中y0是高清摄像头到地平面的距离,δ是比例因子;
相对位置偏移量Δpos
Δpos(x,z)表示边界盒中心坐标(x,y0,z)与目标真实位置的相对偏差,(xi,yi,zi)Δdim是物体i的中心坐标
尺寸偏移量Δdim:
Δdim表示物体真实大小与平均尺寸的对数关系,(wi,hi,li)为目标物体i的尺寸,是给定物体的平均尺寸;
方向向量Δang(x,z):
Δang(x,z)=[sinθi,cosθi]τ
Δang(x,z)表示物体相对于y轴的方向向量,是物体与y轴的量角;
采用NMS对数据进行滤波,得到最终可信任数据,输出下一级处理单元。
优选的,所述高清摄像头内设置有感应的传感器,布置成查看或捕捉以及查看或捕捉车辆环境的选定部分的图像。
优选的,所述高清摄像头的传感器设置成车辆何时遇到路面特征并且向中央处理器发送对应的感应信号。
优选的,所述通信电路与中央处理器通过电性连接,中央处理器包括CPU和GPU。
优选的,所述数据格式转换电路与通信电路电性连接。
优选的,所述存储电路为存储器,其与中央处理器进行电性连接。
优选的,所述高清摄像头为多组,分别设置在车内后视镜的中轴位置、后备箱的尾部壳体上以及车身两侧。
优选的,所述高清摄像头和中央处理器均分为能够执行一个或多个指令,并且启动至少一个高清摄像头以查看或捕捉以及查看或捕捉车辆环境选定的一个图像。
优选的,基于深度学习的高清摄像头3D目标检测系统的使用方法,包括以下步骤:
(1)图像采集:通过高清摄像头获得原始输入图像;
(2)特征值提取:特征提取单元采用用残差网络特征提取方法从输入原始图像中提取多尺度特征映射;
(3)正投影转换:采用正交特征变化将提取的所有多尺度特征映射的特征图转换为正投影鸟瞰图,形成残差网络单元;
(4)构建多层网络:将这些处理后的残差网络单元组成一个由上之下的多层网络;
(5)定位和边界估计:为多层网络的每一层网络的每一个对象在地平面的投影生成一个置信度分数,同时引入位置偏移量、维度偏移量和方向向量;
(6)最终定位:采用非极大值抑制算法识别置信度图中的峰值并生成离散边界框,提高物体位置和边框数据的准确度;
(7)输出数据到终端。
与现有技术相比,本发明的有益效果是:该基于深度学习的高清摄像头3D目标检测系统,图像采集单元主要通过高清摄像头采集图像信息,模型训练单元通过引入自动驾驶数据集对图像识别模型进行评估和校正,图像处理单元根据高清摄像头三维目标识别算法进行目标识别,数据数据模块用于将最终的得到的信息传递给自动驾驶终端。
附图说明
图1为本发明的目标检测系统原理图;
图2为本发明的算法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供一种技术方案:基于深度学习的高清摄像头3D目标检测系统,包括车辆传感器装置、硬件模块以及数据处理模块;
车辆传感器装置包括高清摄像头;
硬件模块包括电源电路、通信电路、数据格式转换电路、中央处理器和存储电路,高清摄像头与中央处理器通过电路连接;在本发明的一个示例中,高清摄像头内设置有感应的传感器,布置成查看或捕捉以及查看或捕捉车辆环境的选定部分的图像;在本发明的一个示例中,高清摄像头的传感器设置成车辆何时遇到路面特征并且向中央处理器发送对应的感应信号;在本发明的一个示例中,通信电路与中央处理CPU/GPU通过电性连接,通信电路通过GPS定位车辆当前坐标位置,存储电路为存储器,其与中央处理器进行数据交换;在本发明的一个示例中,高清摄像头为多组,分别设置在车内后视镜的中轴位置、后备箱的尾部壳体上以及车身两侧,高清摄像头和中央处理器均分为能够执行一个或多个指令,并且启动至少一个高清摄像头以查看或捕捉以及查看和捕捉车辆环境选定的一个图像;
参阅图1,数据处理模块包括图像采集单元、模型训练单元、特征提取单元、图像处理单元和结果输出单元;图像采集单元通过高清摄像头采集原始输入图像,模型训练单元通过引入自动驾驶数据集对原始输入图像的识别模型进行评估和校正,特征提取单元从图像采集单元获取原始输入图像并生成多尺度二维特征映射,图像处理单元根据高清摄像头三维目标识别算法进行目标识别,结果输出单元用于将最终得到的信息传递给自动驾驶终端;
参阅图2,其高清摄像头3D目标检测算法如下:首先本算法通过特征提取单元采用卷积特征提取方法从原始输入图像中生成多尺度二维特征映射,用平面f(u,v)∈Rn表示,Rn代表n维空间;其中(u,v)是这个二维特征映射平面上的特征点,特征映射对图像中低层结构的信息进行编码,低层结构的信息构成了训练网络用于构建场景隐式三维表示的基本组件;
通过正投影鸟瞰转换将f(u,v)∈Rn转换为一个三维特征图,用s(x,y,z)∈Rn表示,其中(x,y,z)是三维空间中的点;所述三维特征图定义了在一个由均匀间隔组成的三维空间里,用矩形框表示任意一个大小为r的立方体,所述矩形框的对角坐标分别为(a1,b1)和(a2,b2),所述矩形框表示的立方体的长为W、宽为D、高为H,并且有:
其中f为高清摄像头的焦距,(ca,cb)为原点;
将图像f(a,b)∈Rn投影的包围框进行平均化,将每一个特征分配到s(x,y,z)∈Rn中适当的位置:
将生成的三维特征映射g(x,y,z),将一组学习到的权值矩阵M(y)与s(x,y,z)相乘后沿垂直轴累加,得到正交特征图:
式中:B(x,z)为三维映射在地平面的投影;
采用积分图像的快速平均池化:
F(u,v)=f(a,b)+F(a-1,b)+F(a,b-1)-F(a-1,b-1)
图像置信度N(x,z):
式中:N(x,z)是一个光滑函数,它表示存在一个以(x,y0,z)为中心的边界盒的概率,其中y0是高清摄像头到地平面的距离,δ是比例因子;
相对位置偏移量Δpos
Δpos(x,z)表示边界盒中心坐标(x,y0,z)与目标真实位置的相对偏差,(xi,yi,zi)Δdim是物体i的中心坐标
尺寸偏移量Δdim:
Δdim表示物体真实大小与平均尺寸的对数关系,(wi,hi,li)为目标物体i的尺寸,是给定物体的平均尺寸;
方向向量Δang(x,z):
Δang(x,z)=[sinθi,cosθi]T
Δang(x,z)表示物体相对于y轴的方向向量,是物体与y轴的量角;
采用NMS对数据进行滤波,得到最终可信任数据,输出下一级处理单元。
上述的基于深度学习的高清摄像头3D目标检测系统的使用方法,包括以下步骤:
(1)图像采集:通过高清摄像头获得原始输入图像;
(2)特征值提取:特征提取单元采用用残差网络特征提取方法从输入原始图像中提取多尺度特征映射;
(3)正投影转换:采用正交特征变化将提取的所有多尺度特征映射的特征图转换为正投影鸟瞰图,形成残差网络单元;
(4)构建多层网络:将这些处理后的残差网络单元组成一个由上之下的多层网络;
(5)定位和边界估计:为多层网络的每一层网络的每一个对象在地平面的投影生成一个置信度分数,同时引入位置偏移量、维度偏移量和方向向量;
(6)最终定位:采用非极大值抑制算法识别置信度图中的峰值并生成离散边界框,提高物体位置和边框数据的准确度;
(7)输出数据到终端。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (9)
1.基于深度学习的高清摄像头3D目标检测系统,包括车辆传感器装置、硬件模块以及数据处理模块,其特征在于:
所述车辆传感器装置包括高清摄像头;
所述硬件模块包括电源电路、通信电路、数据格式转换电路、中央处理器和存储电路,高清摄像头与中央处理器通过电路连接;
所述数据处理模块包括图像采集单元、模型训练单元、特征提取单元、图像处理单元和结果输出单元;
所述图像采集单元通过高清摄像头采集原始输入图像,模型训练单元通过引入自动驾驶数据集对原始输入图像的识别模型进行评估和校正,特征提取单元从图像采集单元获取原始输入图像并生成多尺度二维特征映射,图像处理单元根据高清摄像头三维目标识别算法进行目标识别,结果输出单元用于将最终得到的信息传递给自动驾驶终端;
所述特征提取单元从原始输入图像中生成多尺度二维特征映射,用平面f(u,v)∈Rn表示,Rn代表n维空间;其中(u,v)是这个二维特征映射的平面上的特征点,特征映射对图像中低层结构的信息进行编码,所述低层结构的信息构成训练网络用于构建场景隐式三维表示的基本组件;
通过正投影鸟瞰转换将f(u,v)∈Rn转换为一个三维特征图,用s(x,y,z)∈Rn表示,其中(x,y,z)是三维空间中的点;所述三维特征图定义了在一个由均匀间隔组成的三维空间里,用矩形框表示任意一个大小为r的立方体,所述矩形框的对角坐标分别为(a1,b1)和(a2,b2),所述矩形框表示的立方体的长为W、宽为D、高为H,并且有:
其中f为高清摄像头的焦距,(ca,cb)为原点;
将图像f(a,b)∈Rn投影的包围框进行平均化,将每一个特征分配到s(x,y,z)∈Rn中适当的位置:
将生成的三维特征映射g(x,y,z),将一组学习到的权值矩阵M(y)与s(x,y,z)相乘后沿垂直轴累加,得到正交特征图:
式中:B(x,z)为三维映射在地平面的投影;
采用积分图像的快速平均池化:
F(u,v)=f(a,b)+F(a-1,b)+F(a,b-1)-F(a-1,b-1)
图像置信度N(x,z):
式中:N(x,z)是一个光滑函数,它表示存在一个以(x,y0,z)为中心的边界盒的概率,其中y0是高清摄像头到地平面的距离,δ是比例因子;
相对位置偏移量Δpos
Δpos(x,z)表示边界盒中心坐标(x,y0,z)与目标真实位置的相对偏差,(xi,yi,zi)Δdim是物体i的中心坐标
尺寸偏移量Δdim:
Δdim表示物体真实大小与平均尺寸的对数关系,(wi,hi,li)为目标物体i的尺寸,是给定物体的平均尺寸;
方向向量Δang(x,z):
Δang(x,z)=[sinθi,cosθi]T
Δang(x,z)表示物体相对于y轴的方向向量,是物体与y轴的量角;
采用NMS对数据进行滤波,得到最终可信任数据,输出下一级处理单元。
2.根据权利要求1所述的基于深度学习的高清摄像头3D目标检测系统,其特征在于:所述高清摄像头内设置有感应的传感器,布置成查看或捕捉以及查看或捕捉车辆环境的选定部分的图像。
3.根据权利要求2所述的基于深度学习的高清摄像头3D目标检测系统,其特征在于:所述高清摄像头的传感器设置成车辆何时遇到路面特征并且向中央处理器发送对应的感应信号。
4.根据权利要求1所述的基于深度学习的高清摄像头3D目标检测系统,其特征在于:所述通信电路与中央处理器通过电性连接,中央处理器包括CPU和GPU。
5.根据权利要求1所述的基于深度学习的高清摄像头3D目标检测系统,其特征在于:所述数据格式转换电路与通信电路电性连接。
6.根据权利要求1所述的基于深度学习的高清摄像头3D目标检测系统,其特征在于:所述存储电路为存储器,其与中央处理器进行电性连接。
7.根据权利要求1所述的基于深度学习的高清摄像头3D目标检测系统,其特征在于:所述高清摄像头为多组,分别设置在车内后视镜的中轴位置、后备箱的尾部壳体上以及车身两侧。
8.根据权利要求3所述的基于深度学习的高清摄像头3D目标检测系统,其特征在于:所述高清摄像头和中央处理器均分为能够执行一个或多个指令,并且启动至少一个高清摄像头以查看或捕捉以及查看或捕捉车辆环境选定的一个图像。
9.根据权利要求1所述的基于深度学习的高清摄像头3D目标检测系统的使用方法,其特征在于:包括以下步骤:
(1)图像采集:通过高清摄像头获得原始输入图像;
(2)特征值提取:特征提取单元采用用残差网络特征提取方法从输入原始图像中提取多尺度特征映射;
(3)正投影转换:采用正交特征变化将提取的所有多尺度特征映射的特征图转换为正投影鸟瞰图,形成残差网络单元;
(4)构建多层网络:将这些处理后的残差网络单元组成一个由上之下的多层网络;
(5)定位和边界估计:为多层网络的每一层网络的每一个对象在地平面的投影生成一个置信度分数,同时引入位置偏移量、维度偏移量和方向向量;
(6)最终定位:采用非极大值抑制算法识别置信度图中的峰值并生成离散边界框,提高物体位置和边框数据的准确度;
(7)输出数据到终端。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811652842.XA CN109726692A (zh) | 2018-12-29 | 2018-12-29 | 基于深度学习的高清摄像头3d目标检测系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811652842.XA CN109726692A (zh) | 2018-12-29 | 2018-12-29 | 基于深度学习的高清摄像头3d目标检测系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109726692A true CN109726692A (zh) | 2019-05-07 |
Family
ID=66298034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811652842.XA Pending CN109726692A (zh) | 2018-12-29 | 2018-12-29 | 基于深度学习的高清摄像头3d目标检测系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109726692A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110723079A (zh) * | 2019-10-31 | 2020-01-24 | 北京百度网讯科技有限公司 | 车载传感器的位姿调整方法、装置、设备和介质 |
CN110782692A (zh) * | 2019-10-31 | 2020-02-11 | 青岛海信网络科技股份有限公司 | 一种信号灯故障检测方法及系统 |
CN111986472A (zh) * | 2019-05-22 | 2020-11-24 | 阿里巴巴集团控股有限公司 | 车辆速度确定方法及车辆 |
CN112399046A (zh) * | 2019-07-12 | 2021-02-23 | 联发科技股份有限公司 | 物体检测装置及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9576185B1 (en) * | 2015-09-14 | 2017-02-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Classifying objects detected by 3D sensors for autonomous vehicle operation |
CN107122705A (zh) * | 2017-03-17 | 2017-09-01 | 中国科学院自动化研究所 | 基于三维人脸模型的人脸关键点检测方法 |
CN108759667A (zh) * | 2018-05-29 | 2018-11-06 | 福州大学 | 车载摄像头下基于单目视觉与图像分割的前车测距方法 |
-
2018
- 2018-12-29 CN CN201811652842.XA patent/CN109726692A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9576185B1 (en) * | 2015-09-14 | 2017-02-21 | Toyota Motor Engineering & Manufacturing North America, Inc. | Classifying objects detected by 3D sensors for autonomous vehicle operation |
CN107122705A (zh) * | 2017-03-17 | 2017-09-01 | 中国科学院自动化研究所 | 基于三维人脸模型的人脸关键点检测方法 |
CN108759667A (zh) * | 2018-05-29 | 2018-11-06 | 福州大学 | 车载摄像头下基于单目视觉与图像分割的前车测距方法 |
Non-Patent Citations (2)
Title |
---|
F. MOKHTARIAN等: "Multi-scale free-form 3D object recognition using 3D models", 《IMAGE AND VISION COMPUTING》 * |
THOMAS RODDICK等: "Orthographic Feature Transform for Monocular 3D Object Detection", 《ARXIV》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111986472A (zh) * | 2019-05-22 | 2020-11-24 | 阿里巴巴集团控股有限公司 | 车辆速度确定方法及车辆 |
CN112399046A (zh) * | 2019-07-12 | 2021-02-23 | 联发科技股份有限公司 | 物体检测装置及方法 |
CN112399046B (zh) * | 2019-07-12 | 2022-10-14 | 联发科技股份有限公司 | 物体检测装置及方法 |
CN110723079A (zh) * | 2019-10-31 | 2020-01-24 | 北京百度网讯科技有限公司 | 车载传感器的位姿调整方法、装置、设备和介质 |
CN110782692A (zh) * | 2019-10-31 | 2020-02-11 | 青岛海信网络科技股份有限公司 | 一种信号灯故障检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109726692A (zh) | 基于深度学习的高清摄像头3d目标检测系统 | |
CN110782524B (zh) | 基于全景图的室内三维重建方法 | |
CN111832655B (zh) | 一种基于特征金字塔网络的多尺度三维目标检测方法 | |
CN110264416A (zh) | 稀疏点云分割方法及装置 | |
CN106560835B (zh) | 一种路牌识别方法及装置 | |
CN110738121A (zh) | 一种前方车辆检测方法及检测系统 | |
CN112001958B (zh) | 基于有监督单目深度估计的虚拟点云三维目标检测方法 | |
CN107560592B (zh) | 一种用于光电跟踪仪联动目标的精确测距方法 | |
CN104820991B (zh) | 一种基于代价矩阵的多重软约束立体匹配方法 | |
CN104346608A (zh) | 稀疏深度图稠密化方法和装置 | |
CN104134216B (zh) | 基于16维特征描述的激光点云自动配准方法及系统 | |
CN106019264A (zh) | 一种基于双目视觉的无人机危险车距识别系统及方法 | |
CN110110682A (zh) | 遥感图像的语义立体重构方法 | |
CN110827302A (zh) | 基于深度图卷积网络的点云目标提取方法及装置 | |
CN113936139A (zh) | 一种视觉深度信息与语义分割相结合的场景鸟瞰图重构方法及系统 | |
CN109741240A (zh) | 一种基于层次聚类的多平面图像拼接方法 | |
CN114170535A (zh) | 目标检测定位方法、装置、控制器及存储介质和无人机 | |
CN109508673A (zh) | 一种基于棒状像素的交通场景障碍检测与识别方法 | |
CN114295139A (zh) | 一种协同感知定位方法及系统 | |
CN106709432B (zh) | 基于双目立体视觉的人头检测计数方法 | |
CN113537047A (zh) | 障碍物检测方法、装置、交通工具及存储介质 | |
CN116030445A (zh) | 一种结合点云形状特征的自动驾驶实时三维目标检测方法 | |
CN114972646A (zh) | 一种实景三维模型独立地物的提取与修饰方法及系统 | |
CN110532865A (zh) | 基于可见光与激光融合的航天器结构识别方法 | |
CN110443228A (zh) | 一种行人匹配方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20190507 |
|
WD01 | Invention patent application deemed withdrawn after publication |