CN108921027A - 一种基于激光散斑三维重建的行车障碍物识别方法 - Google Patents
一种基于激光散斑三维重建的行车障碍物识别方法 Download PDFInfo
- Publication number
- CN108921027A CN108921027A CN201810558478.4A CN201810558478A CN108921027A CN 108921027 A CN108921027 A CN 108921027A CN 201810558478 A CN201810558478 A CN 201810558478A CN 108921027 A CN108921027 A CN 108921027A
- Authority
- CN
- China
- Prior art keywords
- laser
- speckle
- recognition methods
- laser speckle
- dimensional reconstruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30261—Obstacle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Graphics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
一种基于激光散斑三维重建的行车障碍物识别方法,所述方法包括以下步骤:步骤一:激光器投射单束激光束;步骤二:单束激光束过DOE衍射散斑;步骤三:激光散斑标定得标记空间;步骤四:编码结构光,三角法测距;步骤五:特征提取;步骤六:SVM训练、分类、编码;步骤七:计算深度信息;步骤八:建立世界坐标系;步骤九:渲染匹配更新点云;步骤十:实时显示。本发明提供了一种行车威胁物识别方法,该识别系统不仅能解决采集图像和深度冲突的缺陷,而且在算法起点上高于二维的平面世界。
Description
技术领域
本发明涉及机器视觉、三维测量、三位传感领域等研究领域,特别是涉及无人驾驶,目标物识别匹配的行车安全方法。
背景技术
目前,使用在无人驾驶上的识别装置是使用二维的匹配识别算法,在测量深度上,使用的是外置雷达或超声波传感器。将雷达或超声波传感器装配在无人驾驶汽车上,当汽车在行驶过程中摄像机实时获取前方平面图像,超声波或雷达返回目标距离信息。但是,由于摄像机是通过光返回信号,而超声波通过声波返回信号,两个返回的信号类型不同,所以处理完之后偶然误差相当大,不利于三维重建,只能知道前方有存在目标单位但无法显示其形貌,而且二维的平面识别匹配和三维的立体识别匹配比较,效率不高、时间还长。
通过DOE光学衍射元件衍射在空间中形成规则的散斑,其中包含了空间个点的深度信息,通过红外CCD相机来捕获形成的散斑。
通过编码结构光,三角测距法计算深度;方法二:通过特征提取,分类器的训练、分类和编码,最终可以获得关于空间每个点所形成的散斑的深度信息。
由所获得的深度信息,通过公式 来求解空间各点的三维坐标。
重建通过ICP迭代最近点算法,通过projective data association方法逐帧计算不同朝向点集相关度,配准点云;已配准的点云数据,执行的融合处理,采用了经典的[Curless96]体集成方法融合这些点云数据;光线投射渲染,采用光线投射渲染前步生成的隐式表面。
发明内容
为了克服现有无人驾驶中行车威胁物识别的采集缺陷、二维算法效率低时间长的不足,本发明提供了一种行车威胁物识别方法,该识别系统不仅能解决采集图像和深度冲突的缺陷,而且在算法起点上高于二维的平面世界。
本发明解决其技术问题所采用的技术方案是:
一种基于激光散斑三维重建的行车障碍物识别方法,所述方法包括以下步骤:
步骤一:激光器投射单束激光束;
步骤二:单束激光束过DOE衍射散斑;
步骤三:激光散斑标定得标记空间;
步骤四:编码结构光,三角法测距;
步骤五:特征提取;
步骤六:SVM训练、分类、编码;
步骤七:计算深度信息;
步骤八:建立世界坐标系;
步骤九:渲染匹配更新点云;
步骤十:实时显示。
进一步,所述步骤一和步骤二中,激光散斑能级得到的团能量不得超过0.4mw上限,范围为-30°到30°(包括左右,上下),纵深距离为0.5-3.5m,由DOE光学衍射元件形成主观散斑光路的激光散斑场。
再进一步,所述步骤三中,所标定的相机为红外CCD相机和彩色摄像机,标定方法可以使用但不限以下方法:两步法,三步法,最小二乘法等;标记空间获取安全空间范围,得到标记安全距离。
所述步骤四中,采用点阵编码的方法,投射激光点阵到被测物体上,形成激光散斑,一次成像即可获得一个完整的三维点云,从而克服了现有三角法主动三维传感技术中的单光束点激光束或线阵激光必须逐点或逐行扫描才能获得完整的三维点阵,提高了采样效率;与相位测量轮廓术比较,点阵编码方法是直接通过对成像点阵的位置确定来计算物体的深度,不存在相位模糊和误差传播的问题,并可在一定程度上缓解由于信息盲区造成的数据残缺不全的问题。
所述步骤五中,对于采集到的图样,进行如下特征提取:PCA 主成分、光斑大小、亮度、灰度等,以及他们之间相关系数和Hurst 指数。
所述步骤六中,将dist距离下的每一幅图的特征作为训练集送入参数相同的SVM分类其中,使用RBF核函数,通过SVM交叉验证得到参数σ和c在训练结果的90%以上;将测试集送入SVM分类组中,对于样本在分类器中的时间不超过0.015ms;根据分类器组得到二进制数据。
步骤七中,通过公式D=Ls+B*dist,计算每个样本的深度信息,然后根据所选的样本像素内进行插值,得到每个像素的深度信息。
所述步骤九中,三维重建通过ICP迭代最近点算法,projective dataassociation方法逐帧计算不同朝向点集相关度,配准点云;已配准的点云数据,执行的融合处理,融合点云数据;光线投射渲染,采用光线投射渲染前步生成的隐式表面。
所述步骤十中,将渲染过后的重建图像通过LED显示屏显示,实时更新。
本发明的有益效果主要表现在:使用激光点阵散斑获取障碍物深度信息,解决了装置的完整性、克服了超声波带来的偶然误差;利用三维点阵算法提升平面识别匹配的效率及时间。。
附图说明
图1是基于激光散斑三维重建的行车障碍物识别方法的流程图。
图2为本发明的内部拆解图镜头面;
图3为本发明的内部拆解图LED显示屏面;
图4为本装置外壳。
图中1.红外摄像头,2.CCD相机,3.激光器,4.DOE光学衍射元件,5.RGB彩色摄像机,6.FPGA开发板,7.电源接口,8.LCD液晶显示器,9.固定架,10.SD卡。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图4,一种基于激光散斑三维重建的行车障碍物识别方法,所述方法包括以下步骤:
步骤一:激光器投射单束激光束;
步骤二:单束激光束过DOE衍射散斑;
步骤三:激光散斑标定得标记空间;
步骤四:编码结构光,三角法测距;
步骤五:特征提取;
步骤六:SVM训练、分类、编码;
步骤七:计算深度信息;
步骤八:建立世界坐标系;
步骤九:渲染匹配更新点云;
步骤十:实时显示。
进一步,所述步骤一和步骤二中,激光散斑能级得到的团能量不得超过0.4mw上限,范围为-30°到30°(包括左右,上下),纵深距离为0.5-3.5m,由DOE光学衍射元件形成主观散斑光路的激光散斑场。
再进一步,所述步骤三中,所标定的相机为红外CCD相机和彩色摄像机,标定方法可以使用但不限以下方法:两步法,三步法,最小二乘法等;标记空间获取安全空间范围,得到标记安全距离。
所述步骤四中,采用点阵编码的方法,投射激光点阵到被测物体上,形成激光散斑,一次成像即可获得一个完整的三维点云,从而克服了现有三角法主动三维传感技术中的单光束点激光束或线阵激光必须逐点或逐行扫描才能获得完整的三维点阵,提高了采样效率;与相位测量轮廓术比较,点阵编码方法是直接通过对成像点阵的位置确定来计算物体的深度,不存在相位模糊和误差传播的问题,并可在一定程度上缓解由于信息盲区造成的数据残缺不全的问题。
所述步骤五中,对于采集到的图样,进行如下特征提取:PCA 主成分、光斑大小、亮度、灰度等,以及他们之间相关系数和Hurst 指数。
所述步骤六中,将dist距离下的每一幅图的特征作为训练集送入参数相同的SVM分类其中,使用RBF核函数,通过SVM交叉验证得到参数σ和c在训练结果的90%以上;将测试集送入SVM分类组中,对于样本在分类器中的时间不超过0.015ms;根据分类器组得到二进制数据。
步骤七中,通过公式D=Ls+B*dist,计算每个样本的深度信息,然后根据所选的样本像素内进行插值,得到每个像素的深度信息。
所述步骤九中,三维重建通过ICP迭代最近点算法,projective dataassociation方法逐帧计算不同朝向点集相关度,配准点云;已配准的点云数据,执行的融合处理,融合点云数据;光线投射渲染,采用光线投射渲染前步生成的隐式表面。
所述步骤十中,将渲染过后的重建图像通过LED显示屏显示,实时更新。
本实施例中,一种基于散斑点阵结构光的行车障碍物识别系统,包括绝缘外壳,所述绝缘外壳内安装激光器3、DOE光学衍射元件4、 CCD相机2、红外摄像头1、RGB彩色摄像机5、FPGA开发板6,所述激光器3与DOE光学衍射元件4连接成为一套激光点阵散斑模组,所述CCD相机2搭载红外摄像头1成为深度模组,所述RGB彩色摄像机5为平面模组,所述激光点阵散斑模组、深度模组和平面模组平行布置且相互隔离,所述激光点阵散斑模组位于所述深度模组和平面模组之间,所述激光点阵散斑模组、深度模组和平面模组均与所述FPGA开发板连接。
进一步,所述激光点阵散斑模组中,外部片状突出部分为DOE 光学衍射元件4,内部圆柱部分为激光器3。
再进一步,所述激光点阵散斑模组、深度模组和平面模组组成采集模块,所述FPGA开发板位于采集模块上层平行放置;LCD液晶显示器8位于镜头相对处;电源放置于装置一角。
所述采集模块通过USB与FPGA开发板连接;LCD液晶显示器 8使用FPC排线接入FPGA开发板;电源通过适配器连接FPGA开发板。
所述绝缘外壳安装在固定架9上。
将雷达或超声波测量深度信息的传感器换成可以标记空间的激光模组,激光器发射一束特定波长、功率的激光束,再通过光学衍射元件将一束激光束衍射成为特定图案的点阵结构光将目标空间标记。通过设定安全距离,然后通过USB传入FPGA中的FLASH进行记录。在小车行驶过程中,如果有障碍物进入标记的空间,则该区域的点阵结构光被打破,通过图案的变化锁定目标空间,使用RGB彩色摄像机采集目标空间平面彩色图像和使用装载特定滤波镜头的CCD相机抓取目标区域激光点阵结构散斑图像变化后的激光点阵结构散斑图像,将采集到的目标空间的平面图样和结构散斑图样传入FPGA开发板中的FLASH进行记录。
如图1所示,在图1中,红外摄像头1与CCD工业相机组成深度模组,激光器3与DOE光学衍射元件4组成激光模组,RGB彩色摄像机5为平面模组,三个采集模组连接在FPGA开发板6上,电源提供各个模块所需功率消耗。三个采集模组应该平行放置于同一水平,电源放于正中是为了保持装置重心偏上,固定于顶时不底重顶轻。
在图2中,LED液晶显示器8放置于内测提供用户界面操作,顶部固定架9用来固定装置于车顶。
在图3中,为放置内部装置的外壳,方便配合固定架9固定在车身,使得在行车过程中不会随之摆动。
标定红外CCD相机每隔1mm取一次标定散斑图像共300副图像。
方法一:使用激光散斑对空间进行编码,即通过DOE将激光束形成散斑点阵,通过红外CCD获取编码图像。通过三角测量法计算出目标空间物体的深度信息记作空间当中的z信息。通过3个世界坐标恢复重建物体的三维空间几何点阵形状,再通过点云库的相应点阵算法将重建的三维点阵图像进行处理、识别、匹配。
空间中任意一点P在世界坐标系中的齐次坐标为 Pw(xw yw zw 1)T,在图像坐标系中的齐次坐标为p(u v 1)T。λ是任意比例因子;K是摄像机内参数矩阵,其中s为图像畸变因子,fu,fv为图像在u方向和v方向上像点的物理坐标到图像像素坐标的比例系数,即有效焦距,(u0v0)是主光轴与图像平面交点的图像坐标。R是一个 3*3单位正交的旋转矩阵;T是一个平移向量;同时(R,T)是摄像机坐标系相对于世界坐标的位置。
通过上述公式,在已知从、内外参数的情况下,可以得到两个方程组,求出世界坐标系下的物理坐标。
方法二:通过PCA方法对标定的图像进行特征提取。
其中(C-λi)p=0,S*=S*p。
使用RBF核函数将提取出的特征训练集送入SVM进行训练,初始化σ,计算特征空间;解Lagrange-duality对偶因子α,通过α求解分类器参数w,b;交叉验证正确率如果平均正确率大于90%,则训练结束。
Ei=ri-yi,η=K(x1,x1)+K(x1,x1)-2K(x1,x2),r为几何距离,
分类完成对每组测试集进行300bit二进制编码,通过公式
D=Ls+B*dist,计算出D深度距离,其中Ls表示纵深距离的起始距离,B表示SVM二进制码转换为10进制的数,dist表示间隔距离。
通过公式来求解空间各点的三维坐标。
通过彩色摄像机获取图像的RGB数据。
三维重建通过ICP迭代最近点算法,projective data association方法逐帧计算不同朝向点集相关度,配准点云;已配准的点云数据,执行的融合处理,融合点云数据;光线投射渲染,采用光线投射渲染前步生成的隐式表面,在显示屏上实时更新。
Claims (9)
1.一种基于激光散斑三维重建的行车障碍物识别方法,其特征在于,所述方法包括以下步骤:
步骤一:激光器投射单束激光束;
步骤二:单束激光束过DOE衍射散斑;
步骤三:激光散斑标定得标记空间;
步骤四:编码结构光,三角法测距;
步骤五:特征提取;
步骤六:SVM训练、分类、编码;
步骤七:计算深度信息;
步骤八:建立世界坐标系;
步骤九:渲染匹配更新点云;
步骤十:实时显示。
2.如权利要求1所述的一种基于激光散斑三维重建的行车障碍物识别方法,其特征在于,所述步骤一和步骤二中,激光散斑能级得到的团能量不得超过0.4mw上限,范围为-30°到30°,纵深距离为0.5-3.5m,由DOE光学衍射元件形成主观散斑光路的激光散斑场。
3.如权利要求1或2所述的一种基于激光散斑三维重建的行车障碍物识别方法,其特征在于:所述步骤三中,所标定的相机为红外CCD相机和彩色摄像机,标定方法为两步法、三步法或最小二乘法;标记空间获取安全空间范围,得到标记安全距离。
4.如权利要求1或2所述的一种基于激光散斑三维重建的行车障碍物识别方法,其特征在于:所述步骤四中,采用点阵编码的方法,投射激光点阵到被测物体上,形成激光散斑,一次成像即可获得一个完整的三维点云。
5.如权利要求1或2所述的一种基于激光散斑三维重建的行车障碍物识别方法,其特征在于:所述步骤五中,对于采集到的图样,进行如下特征提取:PCA主成分、光斑大小、亮度和灰度,以及他们之间相关系数和Hurst指数。
6.如权利要求1或2所述的一种基于激光散斑三维重建的行车障碍物识别方法,其特征在于:所述步骤六中,将dist距离下的每一幅图的特征作为训练集送入参数相同的SVM分类其中,使用RBF核函数,通过SVM交叉验证得到参数σ和c在训练结果的90%以上;将测试集送入SVM分类组中,对于样本在分类器中的时间不超过0.015ms;根据分类器组得到二进制数据。
7.如权利要求1或2所述的一种基于激光散斑三维重建的行车障碍物识别方法,其特征在于:步骤七中,通过公式D=Ls+B*dist,计算每个样本的深度信息,然后根据所选的样本像素内进行插值,得到每个像素的深度信息。
8.如权利要求1或2所述的一种基于激光散斑三维重建的行车障碍物识别方法,其特征在于:所述步骤九中,三维重建通过ICP迭代最近点算法,projective data association方法逐帧计算不同朝向点集相关度,配准点云;已配准的点云数据,执行的融合处理,融合点云数据;光线投射渲染,采用光线投射渲染前步生成的隐式表面。
9.如权利要求1或2所述的一种基于激光散斑三维重建的行车障碍物识别方法,其特征在于:所述步骤十中,将渲染过后的重建图像通过LED显示屏显示,实时更新。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810558478.4A CN108921027A (zh) | 2018-06-01 | 2018-06-01 | 一种基于激光散斑三维重建的行车障碍物识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810558478.4A CN108921027A (zh) | 2018-06-01 | 2018-06-01 | 一种基于激光散斑三维重建的行车障碍物识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108921027A true CN108921027A (zh) | 2018-11-30 |
Family
ID=64418111
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810558478.4A Pending CN108921027A (zh) | 2018-06-01 | 2018-06-01 | 一种基于激光散斑三维重建的行车障碍物识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108921027A (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109658398A (zh) * | 2018-12-12 | 2019-04-19 | 华中科技大学 | 一种基于三维测量点云的零件表面缺陷识别与评估方法 |
CN109798838A (zh) * | 2018-12-19 | 2019-05-24 | 西安交通大学 | 一种基于激光散斑投射的ToF深度传感器及其测距方法 |
CN110118974A (zh) * | 2019-05-31 | 2019-08-13 | 哈尔滨工业大学(深圳) | 一种基于三维激光增稠机构的多帧融合方法 |
CN110203139A (zh) * | 2019-06-18 | 2019-09-06 | 浙江科技学院 | 一种电动汽车t-box系统 |
CN110254441A (zh) * | 2019-06-18 | 2019-09-20 | 浙江科技学院 | 一种电动汽车安全管理系统 |
CN111337898A (zh) * | 2020-02-19 | 2020-06-26 | 北京百度网讯科技有限公司 | 激光点云的处理方法、装置、设备及存储介质 |
CN112294453A (zh) * | 2020-10-12 | 2021-02-02 | 浙江未来技术研究院(嘉兴) | 一种显微手术术野三维重建系统及方法 |
CN112489190A (zh) * | 2020-11-18 | 2021-03-12 | 新拓三维技术(深圳)有限公司 | 一种全自动室内扫描方法、系统及计算机可读存储介质 |
CN114972633A (zh) * | 2022-05-06 | 2022-08-30 | 中国海洋大学 | 交叉激光线约束下的快速扫描点云插值方法 |
CN114972633B (zh) * | 2022-05-06 | 2024-06-28 | 中国海洋大学 | 交叉激光线约束下的快速扫描点云插值方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971409A (zh) * | 2014-05-22 | 2014-08-06 | 福州大学 | 一种利用rgb-d摄像机测量足部三维脚型信息及三维重建模型的方法 |
CN103971405A (zh) * | 2014-05-06 | 2014-08-06 | 重庆大学 | 一种激光散斑结构光及深度信息的三维重建方法 |
CN107862733A (zh) * | 2017-11-02 | 2018-03-30 | 南京大学 | 基于视线更新算法的大规模场景实时三维重建方法和系统 |
-
2018
- 2018-06-01 CN CN201810558478.4A patent/CN108921027A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971405A (zh) * | 2014-05-06 | 2014-08-06 | 重庆大学 | 一种激光散斑结构光及深度信息的三维重建方法 |
CN103971409A (zh) * | 2014-05-22 | 2014-08-06 | 福州大学 | 一种利用rgb-d摄像机测量足部三维脚型信息及三维重建模型的方法 |
CN107862733A (zh) * | 2017-11-02 | 2018-03-30 | 南京大学 | 基于视线更新算法的大规模场景实时三维重建方法和系统 |
Non-Patent Citations (3)
Title |
---|
SHAHRAM IZADI ET AL.: "KinectFusion: real-time 3D reconstruction and interaction using a moving depth camera", 《UIST"11: PROCEEDINGS OF THE 24TH ANNUAL ACM SYMPOSIUM ON USER INTERFACE SOFTWARE AND TECHNOLOGY》 * |
王红伟: "基于单目视觉三维重建的障碍物检测算法的设计与实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
田劲东,彭翔: "位错点阵投影的三维数字成像", 《光学学报》 * |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109658398A (zh) * | 2018-12-12 | 2019-04-19 | 华中科技大学 | 一种基于三维测量点云的零件表面缺陷识别与评估方法 |
CN109658398B (zh) * | 2018-12-12 | 2021-05-18 | 华中科技大学 | 一种基于三维测量点云的零件表面缺陷识别与评估方法 |
CN109798838B (zh) * | 2018-12-19 | 2020-10-27 | 西安交通大学 | 一种基于激光散斑投射的ToF深度传感器及其测距方法 |
CN109798838A (zh) * | 2018-12-19 | 2019-05-24 | 西安交通大学 | 一种基于激光散斑投射的ToF深度传感器及其测距方法 |
CN110118974A (zh) * | 2019-05-31 | 2019-08-13 | 哈尔滨工业大学(深圳) | 一种基于三维激光增稠机构的多帧融合方法 |
CN110118974B (zh) * | 2019-05-31 | 2021-05-25 | 哈尔滨工业大学(深圳) | 一种基于三维激光增稠机构的多帧融合方法 |
CN110203139A (zh) * | 2019-06-18 | 2019-09-06 | 浙江科技学院 | 一种电动汽车t-box系统 |
CN110254441A (zh) * | 2019-06-18 | 2019-09-20 | 浙江科技学院 | 一种电动汽车安全管理系统 |
CN111337898A (zh) * | 2020-02-19 | 2020-06-26 | 北京百度网讯科技有限公司 | 激光点云的处理方法、装置、设备及存储介质 |
CN112294453A (zh) * | 2020-10-12 | 2021-02-02 | 浙江未来技术研究院(嘉兴) | 一种显微手术术野三维重建系统及方法 |
CN112294453B (zh) * | 2020-10-12 | 2022-04-15 | 浙江未来技术研究院(嘉兴) | 一种显微手术术野三维重建系统及方法 |
CN112489190A (zh) * | 2020-11-18 | 2021-03-12 | 新拓三维技术(深圳)有限公司 | 一种全自动室内扫描方法、系统及计算机可读存储介质 |
CN112489190B (zh) * | 2020-11-18 | 2024-05-31 | 新拓三维技术(深圳)有限公司 | 一种全自动室内扫描方法、系统及计算机可读存储介质 |
CN114972633A (zh) * | 2022-05-06 | 2022-08-30 | 中国海洋大学 | 交叉激光线约束下的快速扫描点云插值方法 |
CN114972633B (zh) * | 2022-05-06 | 2024-06-28 | 中国海洋大学 | 交叉激光线约束下的快速扫描点云插值方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108921027A (zh) | 一种基于激光散斑三维重建的行车障碍物识别方法 | |
JP5588812B2 (ja) | 画像処理装置及びそれを用いた撮像装置 | |
US7362881B2 (en) | Obstacle detection system and method therefor | |
CN110044300A (zh) | 基于激光器的两栖三维视觉探测装置及探测方法 | |
CN108444390A (zh) | 一种无人驾驶汽车障碍物识别方法及装置 | |
CN109871776B (zh) | 全天候车道线偏离的预警方法 | |
CN108377380A (zh) | 影像扫描系统及其方法 | |
CN107991687A (zh) | 障碍物检测装置和方法 | |
CN108549381A (zh) | 一种基于图像视觉的无人船避障装置及方法 | |
US11948344B2 (en) | Method, system, medium, equipment and terminal for inland vessel identification and depth estimation for smart maritime | |
CN113848931B (zh) | 农机自动驾驶障碍物识别方法、系统、设备和存储介质 | |
CN113221648B (zh) | 一种基于移动测量系统的融合点云序列影像路牌检测方法 | |
CN110488805A (zh) | 一种基于3d立体视觉的无人车避障系统及方法 | |
CN108021849B (zh) | 一种行人预警方法及装置 | |
KR20230065978A (ko) | 구조화된 광을 사용하여 장면에서 평면 표면들을 직접 복구하기 위한 시스템, 방법 및 매체 | |
CN111323767A (zh) | 一种夜间无人车障碍物检测系统与方法 | |
CN109895697B (zh) | 一种行车辅助提示系统及方法 | |
CN115239822A (zh) | 分体式飞行车辆多模块间实时视觉识别定位方法及系统 | |
CN113160416B (zh) | 一种用于煤流检测的散斑成像装置及方法 | |
CN112990049A (zh) | 用于车辆自动驾驶的aeb紧急制动方法、装置 | |
CN112330747A (zh) | 基于无人机平台的多传感器联合探测和显示方法 | |
Nguyen et al. | CalibBD: Extrinsic calibration of the LiDAR and camera using a bidirectional neural network | |
US20220309776A1 (en) | Method and system for determining ground level using an artificial neural network | |
CN208569046U (zh) | 基于散斑点阵结构光的行车障碍物识别系统 | |
CN114973038A (zh) | 一种基于transformer的机场跑道线检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181130 |