CN115115595B - 一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法 - Google Patents
一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法 Download PDFInfo
- Publication number
- CN115115595B CN115115595B CN202210758555.7A CN202210758555A CN115115595B CN 115115595 B CN115115595 B CN 115115595B CN 202210758555 A CN202210758555 A CN 202210758555A CN 115115595 B CN115115595 B CN 115115595B
- Authority
- CN
- China
- Prior art keywords
- infrared camera
- laser radar
- point cloud
- fire
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000012544 monitoring process Methods 0.000 title claims abstract description 20
- 230000008569 process Effects 0.000 claims abstract description 8
- 239000011159 matrix material Substances 0.000 claims description 22
- 238000005070 sampling Methods 0.000 claims description 22
- 238000001914 filtration Methods 0.000 claims description 17
- 238000002485 combustion reaction Methods 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 4
- 241000021559 Dicerandra Species 0.000 claims description 3
- 235000010654 Melissa officinalis Nutrition 0.000 claims description 3
- 230000002146 bilateral effect Effects 0.000 claims description 3
- 239000000865 liniment Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 238000012935 Averaging Methods 0.000 abstract 1
- 238000000605 extraction Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/32—Indexing scheme for image data processing or generation, in general involving image mosaicing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10044—Radar image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
- Y02A40/28—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture specially adapted for farming
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Fire-Detection Mechanisms (AREA)
Abstract
一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法,涉及森林火灾智能监测技术领域,为解决现有技术无法利用火场信息对机载激光雷达和红外相机进行实时地、准确地标定的问题。具体过程为:步骤一、通过搭载激光雷达和红外相机的无人机采集火场数据,获得激光雷达点云数据和红外相机图像数据;步骤二、利用激光雷达点云数据提取火场的点云轮廓;步骤三、利用红外相机图像数据提取火场的图像轮廓;步骤四、将火场点云轮廓和图像轮廓进行匹配和优化,求解激光雷达和红外相机之间的外参结果;每隔t秒钟执行一次上述步骤,将w次外参结果求取平均值作为最终外参标定结果。本发明为林火监测工作提供便利,具有突出的优势。
Description
技术领域
本发明涉及森林火灾智能监测技术领域,具体而言,涉及一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法。
背景技术
近年来,我国森林火灾频繁发生,为了有效预防和及时扑灭森林火灾,保障人民生命财产安全,维护生态安全和保护森林资源,国家不断出台相关政策。随着无人机技术的快速发展,搭载着激光雷达和红外相机等传感器的无人机在森林火灾智能监测领域发挥的作用日益显著。相对于传统的森林火灾监测方式,无人机可以实时准确地获取遥感数据和影像数据,提升森林火灾监测效率和监测水平,满足智慧林业的建设需求。机载激光雷达和红外相机在森林火灾监测领域应用广泛,激光雷达可以稳定快速地获取周围环境的空间信息,但缺乏感知其他属性的能力,红外相机可以在夜间和恶劣的环境下工作。激光雷达和红外相机的联合使用为森林消防员快速确定火情提供了很大帮助。
目前激光雷达和红外相机的标定方法大多使用一些具有空间几何特征的标定物,利用激光雷达在边缘点处的深度不连续性,提取距离突变处的点作为边缘点,以用作标定的特征点,并和图像中提取的边缘信息进行配准。需要投入人工成本和时间成本,不能依靠火场环境信息完成自动实时标定。因此,研究面向森林火灾监测的机载激光雷达和红外相机的实时标定具有非常重要的意义。
发明内容
本发明要解决的技术问题是:
现有技术无法利用火场信息对机载激光雷达和红外相机进行实时地、准确地标定的问题。
本发明为解决上述技术问题所采用的技术方案为:
为解决上述问题,本发明提出了一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法,包括如下步骤:
步骤一、通过搭载激光雷达和红外相机的无人机采集火场数据,获得激光雷达点云数据和红外相机图像数据;
步骤二、利用步骤一中的激光雷达点云数据提取火场的点云轮廓;
步骤三、利用步骤一中的红外相机图像数据提取火场的图像轮廓;
步骤四、对步骤二中的火场点云轮廓和步骤三中的火场图像轮廓进行匹配和优化,求解激光雷达和红外相机之间的外参结果;
且每隔t秒钟执行一次上述步骤,将w次外参结果求取平均值作为激光雷达和红外相机之间的外参。
进一步地,步骤二中提取火场点云轮廓时,首先对获得的稀疏的激光雷达点云数据进行实时配准拼接,构建密集的火场点云地图;然后对密集的火场点云地图进行滤波处理,获得规则平滑的火场点云地图;再根据火场点云地图中火场点云强度值发生突变处的若干激光雷达点确定火场点云轮廓。
进一步地,步骤二中具体为采用BALM算法对激光雷达点云数据进行实时配准拼接。
进一步地,步骤二中分别采用统计滤波、高斯滤波、双边滤波和直通滤波对密集的火场点云地图进行滤波处理。
进一步地,步骤三中提取火场图像轮廓时,首先对获得的红外相机图像数据进行直方图均衡化获取红外图像的像素值分布,根据像素值分布判断是否存在燃烧区域;然后通过OTSU自适应阈值分割算法对红外相机图像数据进行二值化处理,增强燃烧区域和未燃烧区域之间的区分度;再通过Canny算法提取火场图像轮廓。
进一步地,步骤三中红外图像的像素值分布有超过85%位于1~55和200~255两个范围内时,则认为存在燃烧区域。
进一步地,步骤四中对步骤二中的火场点云轮廓和步骤三中的火场图像轮廓进行匹配和优化,求解激光雷达和红外相机之间的外参的具体过程为:
式中,[u,v,1]T表示红外图像轮廓的像素点的坐标,[x,y,z,1]T表示点云轮廓的采样点的坐标,K3×4为已知的红外相机的内参矩阵,T4×4为激光雷达和红外相机之间的外参矩阵,si为比例因子,fx为以像素表示的轴方向的焦距,fy为以像素表示的y轴方向的焦距,cx为主点x坐标,cy为主点y坐标,R3×3为激光雷达和红外相机之间的旋转矩阵,t3×1为激光雷达和红外相机之间的平移矩阵;根据方程求得初始外参矩阵T′;
相较于现有技术,本发明的有益效果是:
一、标定精度高:本发明分别通过点云配准拼接和点云滤波实现点云的密集化和平滑化,并将火场点云强度值发生突变处的若干激光雷达点作为火场点云轮廓,保证了火线点云轮廓的提取精度;通过直方图均衡化和OTSU自适应阈值分割实现是否存在燃烧区域的判断和火场图像有效分割,并通过Canny算法提取火线图像轮廓,保证了火线图像轮廓的提取精度;进一步地保障了所求解的外参矩阵的标定精度。
在确定点云采样点三维坐标在红外相机图像平面对应的红外图像轮廓像素点时,采用了利用了k-D tree搜索k最近邻点的方法,在优化匹配误差时,采用了利用最小化重投影误差迭代求解的方法,提高了标定的准确度。
二、标定过程简单:当发生火灾时,无人机起飞至合适高度获取火场信息并进行实时标定,整个过程完全由无人机搭载的传感器自主完成,无需人工提前设置标定板等参照物进行标定,节约了人工成本,为无人机监测森林火灾提供了便利。尤其针对突发火灾情况,激光雷达与红外相机的自主实时标定更能够体现其突出的优势。
附图说明
图1为本发明实施例中的技术流程图;
图2为本发明实施例中数据采集的火场现场图;
图3为本发明实施例中激光雷达得到的火场点云图和火场点云轮廓;
图4为本发明实施例中的火场红外相机图像和火场图像轮廓;
图5为本发明实施例中火场点云轮廓与火场图像轮廓融合效果图;
图6为本发明实施例中本发明标定方法与人工提取标定板角点的标定方法效果对比图,其中图(a)为人工提取标定板角点的标定方法的标定的结果,图(b)为本发明方法的标定结果;
图7为本发明实施例中数据采集设备图。
具体实施方式
在本发明的描述中,应当说明的是,在本发明的实施例中所提到的术语“第一”、“第二”、“第三”仅用于描述目的,并不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括一个或者多个该特征。
为使本发明的上述目的、特征和优点能够更为明显易懂,下面结合附图对本发明的具体实施例做详细的说明。
如图1所示,利用如图7所示的安装有激光雷达(型号为VLP-16)和红外相机(型号为为ZX-IRV)以及工控机等设备的大疆T16无人机飞至如图2所示的火场上空30m处采集火场激光雷达点云数据和红外相机图像数据,数据采集时间为3~5分钟,采样频率为10Hz,激光雷达和红外相机的时间校准已事先完成。
通过BALM算法提取激光雷达点云数据中的点、线、面特征,然后根据这些特征将新的一帧点云注册到由之前若干帧点云构成的地图中,并利用自适应体素图对过程进行加速,以此实现对步骤一中稀疏的激光雷达点云数据进行实时配准拼接,从而构建密集的火场点云地图。
对密集的火场点云地图进行直通滤波以去除火场以外无用的环境点云,进行统计滤波、高斯滤波和双边滤波以获得规则平滑的火场点云地图,保证点云轮廓的提取精度。
如图3所示,火场点云图中燃烧区域和未燃烧区域的点云强度值不同,将火场点云强度值发生突变处的若干激光雷达点作为火场点云轮廓,即燃烧区域最外侧的一圈激光雷达点。
如图4所示,火场红外相机图像中,燃烧区域像素值较高,未燃烧区域较像素值较低。为判断红外图像中是否存在燃烧区域,需要先对获得的红外相机图像进行直方图均衡化获取红外图像的像素值分布,当红外图像的像素值有超过85%位于1~55和200~255时,即可认为红外图像中存在燃烧区域;然后通过OTSU自适应阈值分割算法对红外相机图像数据进行二值化处理,增强燃烧区域和未燃烧区域之间的区分度,便于提取火线;最后通过Canny算法即可提取出以像素信息表达的火场图像轮廓。
通过红外图像的像素值有超过85%位于1~55和200~255,判断红外图像中是否存在燃烧区域的方法,是发明人通过对大量采集数据进行统计分析得到的结论,且本方法判断的准确率可达到98%以上。
将火场点云轮廓和火场图像轮廓进行匹配和优化,求解激光雷达和红外相机之间的外参,具体过程为:
式中,[u,v,1]T表示红外图像轮廓的像素点的坐标,[x,y,z,1]T表示点云轮廓的采样点的坐标,K3×4为已知的红外相机的内参矩阵,T4×4为激光雷达和红外相机之间的外参矩阵,si为比例因子,fx为以像素表示的x轴方向的焦距,fy为以像素表示的y轴方向的焦距,cx为主点x坐标,cy为主点坐标,R3×3为激光雷达和红外相机之间的旋转矩阵,t3×1为激光雷达和红外相机之间的平移矩阵;根据方程求得初始外参矩阵T′;
每隔10秒钟执行一次上述标定过程,将5次外参结果求取平均值作为激光雷达和红外相机之间的外参。
如图5所示,利用外参标定结果进行激光雷达和红外相机的数据融合,不难看出,融合效果能够满足火灾监测的需求,较好地解决了现有技术无法利用火场信息进行激光雷达和红外相机标定的技术难题。
如图6所示,针对同一标定板,分别采用现有的人工提取标定板角点的方法对激光雷达和红外相机进行标定和采用本发明方法进行标定,可以看出,通过人工提取标定板角点进行标定的方法进行标定时,标定板的激光雷达点云与红外图像存在一定偏差;而采用本发明方法进行标定时,标定板的激光雷达点云与红外图像几乎没有偏差,相较于通过人工提取标定板角点进行标定的方法,本发明所述的激光雷达和红外相机之间外参标定结果具有更高的可靠性和准确性。
虽然本发明公开披露如上,但本发明公开的保护范围并非仅限于此。本发明领域技术人员在不脱离本发明公开的精神和范围的前提下,可进行各种变更与修改,这些变更与修改均将落入本发明的保护范围。
Claims (4)
1.一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法,其特征在于,包括如下步骤:
步骤一、通过搭载激光雷达和红外相机的无人机采集火场数据,获得激光雷达点云数据和红外相机图像数据;
步骤二、利用步骤一中的激光雷达点云数据提取火场的点云轮廓;
提取火场点云轮廓时,首先对获得的稀疏的激光雷达点云数据进行实时配准拼接,构建密集的火场点云地图;然后对密集的火场点云地图进行滤波处理,获得规则平滑的火场点云地图;再根据火场点云强度值发生突变处的若干激光雷达点确定火场点云轮廓;
步骤三、利用步骤一中的红外相机图像数据提取火场的图像轮廓;
提取火场图像轮廓时,首先对获得的红外相机图像数据进行直方图均衡化获取红外图像的像素值分布,根据像素值分布判断是否存在燃烧区域;然后通过OTSU自适应阈值分割算法对红外相机图像数据进行二值化处理,增强燃烧区域和未燃烧区域之间的区分度;再通过Canny算法提取火场图像轮廓;
步骤四、对步骤二中的火场点云轮廓和步骤三中的火场图像轮廓进行匹配和优化,求解激光雷达和红外相机之间的外参结果;
具体过程为:
式中,[u,v,1]T表示红外图像轮廓的像素点的坐标,[x,y,z,1]T表示点云轮廓的采样点的坐标,K3×4为已知的红外相机的内参矩阵,T4×4为激光雷达和红外相机之间的外参矩阵,si为比例因子,fx为以像素表示的x轴方向的焦距,fy为以像素表示的y轴方向的焦距,cx为主点x坐标,cy为主点y坐标,R3×3为激光雷达和红外相机之间的旋转矩阵,t3×1为激光雷达和红外相机之间的平移矩阵;根据方程求得初始外参矩阵T′;
且每隔t秒钟执行一次上述步骤,将w次外参结果求取平均值作为激光雷达和红外相机之间的外参。
2.如权利要求1所述的一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法,其特征在于:步骤二中具体为采用BALM算法对激光雷达点云数据进行实时配准拼接。
3.如权利要求2所述的一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法,其特征在于:步骤二中分别采用统计滤波、高斯滤波、双边滤波和直通滤波对密集的火场点云地图进行滤波处理。
4.如权利要求3所述的一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法,其特征在于:步骤三中红外图像的像素值分布有超过85%位于1~55和200~255两个范围内时,则认为存在燃烧区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210758555.7A CN115115595B (zh) | 2022-06-30 | 2022-06-30 | 一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210758555.7A CN115115595B (zh) | 2022-06-30 | 2022-06-30 | 一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115115595A CN115115595A (zh) | 2022-09-27 |
CN115115595B true CN115115595B (zh) | 2023-03-03 |
Family
ID=83330997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210758555.7A Active CN115115595B (zh) | 2022-06-30 | 2022-06-30 | 一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115115595B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115497247A (zh) * | 2022-10-11 | 2022-12-20 | 成远矿业开发股份有限公司 | 一种基于无人机的森林火灾监测方法 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111856436A (zh) * | 2020-07-02 | 2020-10-30 | 大连理工大学 | 一种多线激光雷达和红外相机的联合标定装置及标定方法 |
WO2020237693A1 (zh) * | 2019-05-31 | 2020-12-03 | 华南理工大学 | 一种水面无人装备多源感知方法及系统 |
CN113359141A (zh) * | 2021-07-28 | 2021-09-07 | 东北林业大学 | 一种基于无人机多传感器数据融合的林火定位方法及系统 |
CN113838141A (zh) * | 2021-09-02 | 2021-12-24 | 中南大学 | 一种单线激光雷达与可见光相机的外参标定方法及系统 |
CN113902812A (zh) * | 2021-10-13 | 2022-01-07 | 岱悟智能科技(上海)有限公司 | 一种基于多标定板的激光雷达与相机外参自动标定方法 |
CN113902809A (zh) * | 2021-09-14 | 2022-01-07 | 立得空间信息技术股份有限公司 | 一种红外相机与激光雷达联合标定的方法 |
CN114076956A (zh) * | 2021-11-12 | 2022-02-22 | 北京斯年智驾科技有限公司 | 一种基于激光雷达点云辅助的车道线标定方法 |
CN114415133A (zh) * | 2022-01-19 | 2022-04-29 | 白犀牛智达(北京)科技有限公司 | 激光雷达-相机外参标定方法、装置、设备及存储介质 |
-
2022
- 2022-06-30 CN CN202210758555.7A patent/CN115115595B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020237693A1 (zh) * | 2019-05-31 | 2020-12-03 | 华南理工大学 | 一种水面无人装备多源感知方法及系统 |
CN111856436A (zh) * | 2020-07-02 | 2020-10-30 | 大连理工大学 | 一种多线激光雷达和红外相机的联合标定装置及标定方法 |
CN113359141A (zh) * | 2021-07-28 | 2021-09-07 | 东北林业大学 | 一种基于无人机多传感器数据融合的林火定位方法及系统 |
CN113838141A (zh) * | 2021-09-02 | 2021-12-24 | 中南大学 | 一种单线激光雷达与可见光相机的外参标定方法及系统 |
CN113902809A (zh) * | 2021-09-14 | 2022-01-07 | 立得空间信息技术股份有限公司 | 一种红外相机与激光雷达联合标定的方法 |
CN113902812A (zh) * | 2021-10-13 | 2022-01-07 | 岱悟智能科技(上海)有限公司 | 一种基于多标定板的激光雷达与相机外参自动标定方法 |
CN114076956A (zh) * | 2021-11-12 | 2022-02-22 | 北京斯年智驾科技有限公司 | 一种基于激光雷达点云辅助的车道线标定方法 |
CN114415133A (zh) * | 2022-01-19 | 2022-04-29 | 白犀牛智达(北京)科技有限公司 | 激光雷达-相机外参标定方法、装置、设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
基于多谱融合的植被环境中障碍物检测;王盛 等;《浙江大学学报(工学版)》;20151130;第49卷(第11期);全文 * |
基于点云中心的激光雷达与相机联合标定方法研究;康国华 等;《仪器仪表学报》;20191231;第40卷(第12期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115115595A (zh) | 2022-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110070570B (zh) | 一种基于深度信息的障碍物检测系统及方法 | |
JP6336117B2 (ja) | 建物高さの計算方法、装置及び記憶媒体 | |
Awrangjeb et al. | Automatic building extraction from LiDAR data covering complex urban scenes | |
TW201022708A (en) | Method of change detection for building models | |
CN110794413B (zh) | 线性体素分割的激光雷达点云数据电力线检测方法和系统 | |
CN110473221B (zh) | 一种目标物体自动扫描系统及方法 | |
CN112344869B (zh) | 基于侧面拟合的铁塔变形监测方法及系统 | |
CN108195736B (zh) | 一种三维激光点云提取植被冠层间隙率的方法 | |
CN111126183A (zh) | 一种基于近地面影像数据的震后建筑物损毁检测方法 | |
CN112967345B (zh) | 鱼眼相机的外参标定方法、装置以及系统 | |
CN115115595B (zh) | 一种面向森林火灾监测的机载激光雷达和红外相机的实时标定方法 | |
CN115240093B (zh) | 基于可见光和激光雷达点云融合的输电通道自动巡检方法 | |
CN113093746B (zh) | 作业机械环境感知方法、装置、系统及作业机械 | |
CN114117717A (zh) | 一种森林防火监控方法、装置和系统 | |
CN112578405B (zh) | 一种基于激光雷达点云数据去除地面的方法及系统 | |
CN113378754A (zh) | 一种工地裸土监测方法 | |
CN116091709B (zh) | 建筑物的三维重建方法、装置、电子设备和存储介质 | |
CN116911497A (zh) | 一种市政房屋建筑施工监管系统 | |
CN113932712A (zh) | 一种基于深度相机和关键点的瓜果类蔬菜尺寸测量方法 | |
CN112381029A (zh) | 一种基于欧氏距离的机载LiDAR数据建筑物提取方法 | |
CN113256574A (zh) | 一种三维目标检测方法 | |
CN116704138B (zh) | 倾斜摄影三维模型的建立方法及装置 | |
CN116758006B (zh) | 脚手架质量检测方法及装置 | |
Zhu et al. | Research on urban construction land change detection method based on dense dsm and tdom of aerial images | |
CN113627305B (zh) | 机场跑道上的小尺度fod的检测装置及检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |