CN111559314A - 深度与图像信息融合的3d增强全景环视系统及实现方法 - Google Patents
深度与图像信息融合的3d增强全景环视系统及实现方法 Download PDFInfo
- Publication number
- CN111559314A CN111559314A CN202010343978.3A CN202010343978A CN111559314A CN 111559314 A CN111559314 A CN 111559314A CN 202010343978 A CN202010343978 A CN 202010343978A CN 111559314 A CN111559314 A CN 111559314A
- Authority
- CN
- China
- Prior art keywords
- image
- depth
- vehicle
- camera
- point cloud
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 23
- 230000004927 fusion Effects 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims description 10
- 238000009434 installation Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 claims description 4
- 238000012800 visualization Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 230000003014 reinforcing effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 240000004050 Pentaglottis sempervirens Species 0.000 description 2
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000007983 Tris buffer Substances 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06T3/08—
-
- G06T5/80—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Mechanical Engineering (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种用于图像与深度信息融合的3D增强全景环视系统,包括鱼眼相机,深度相机和处理器,四个鱼眼相机和四个深度相机分别设置在车头中间,车尾中间及车辆两侧后视镜处;车头左右两侧各加装一个深度相机、车尾左右两侧各加装一个深度相机,车身左右两侧各加装两个深度相机;该系统通过将深度信息与图像信息融合将目标物体和地面都转换为点云并统一于车辆坐标系下,消除了普通全景环视系统中物体畸变较大的情况,并且能够得到行驶中物体与车辆的实时距离,提高了驾驶的安全性和体验感。
Description
技术领域
本发明属于车辆安全辅助及汽车电子领域,具体涉及一种基于深度与图像信息融合的3D增强全景环视系统及实现方法。
背景技术
随着汽车保有量迅速增长,道路交通安全逐渐成为一个重大的社会问题。全景环视系统通过一组共四颗架设在车身四周的相机实时采集车辆周边环境信息,再对每个相机采集的视频影像信息进行畸变校正、视觉变换处理后,整合拼接形成包含车辆和周边环境信息的全景视频,在中控台上显示,以辅助驾驶员在驾驶、倒车、停车过程中更好地操作,减小事故发生可能。
目前有2D和3D全景两种方案,2D全景系统生成鸟瞰视角的全景视频,它能为汽车驾驶员提供更直观的辅助驾驶信息。在停车场泊车、倒车入库、狭窄路段行驶等工况下为驾驶员提供可靠的盲区显示辅助功能;
3D全景相比于2D全景允许驾驶员从多个角度观察汽车行驶环境,几乎可以保证驾驶员没有视觉死角,提升了驾驶体验,安全保障性能较好,是视觉增强型安全系统的主要趋势。
然而,传统的基于鱼眼相机的环视系统,由于相机畸变,很难避免物体形状失真、显示效果不佳的问题。此外,鱼眼相机不具备测距能力,无法判断车辆与周围物体的距离,不利于提醒驾驶员安全驾驶。为了解决全景图像中物体畸变的问题,一些研究学者首先利用光流技术获得相机的相对位姿变换,然后利用平面扫描法获得单个视角的深度图像,最后利用深度图像修正全景图像。但是该方法计算复杂,难以保证实时性,并且在环境复杂的条件下生成的深度图像误差大。为了获得全景图像中物体的相对位置,一些研究学者采用多传感器融合的方法,比如超声波传感器与鱼眼相机的融合,激光雷达与鱼眼相机的融合。可是,超声波传感器无法提供物体的点云信息,很难修正全景图像中物体的变形。激光雷达价格昂贵,难以普及应用。因此本发明提出了一种深度相机与鱼眼相机融合的3D增强全景环视系统来解决上述问题。
发明内容
本发明要解决的技术问题是提供一种基于深度相机与鱼眼相机,能够对深度信息和图像信息融合处理的3D增强全景环视系统。该系统将地面和目标物体都转换为车辆坐标系下的点云并可按照任意视角进行投影显示。因此,该系统可以消除物体畸变和获得车辆的空间距离,提高驾驶员对周围环境的感知和对3D全景系统使用的体验感从而提升驾驶的安全性。
本发明为解决上述技术问题所采取的技术方案为:一种用于图像与深度信息融合的3D增强全景环视系统,包括鱼眼相机,深度相机和处理器,其特征在于:
四个鱼眼相机和四个深度相机分别设置在车头中间,车尾中间及车辆两侧后视镜处;
车头左右两侧各加装一个深度相机、车尾左右两侧各加装一个深度相机,车身左右两侧各加装两个深度相机;其中:
所述鱼眼相机实时捕捉视场角不小于180度的车辆周围影像信息,由相机内的感光组件电路及控制组件对图像进行处理并转换成电脑所能识别的数字信号;所述深度相机集成了彩色相机和深度传感器,能够同时采集彩色图像和对应的深度图像;所述处理器为NVIDIA TX2处理器,用于处理鱼眼相机的畸变图像和深度相机的彩色图像和深度图像,生成图像信息与深度信息融合的3D增强全景环视系统。
进一步地,该3D增强全景环视系统通过三个功能模块进行工作,其中:
第一功能模块是利用深度相机生成的深度图像和彩色图像生成点云;通过利用卷积神经网络提取彩色图像中常见物体,然后再结合对应的深度图像和深度相机的安装位置生成车辆坐标系下的目标点云,最后对目标点云进行聚类以减少噪点;
第二功能模块是利用鱼眼相机生成的广视角图像生成2D全景环视图像,然后根据虚拟相机模型将2D全景环视图像转换为车辆坐标系下的地面点云;
第三功能模块是将目标点云,车模点云和地面点云统一于车辆坐标系下并做可视化处理从而生成3D全景环视图像。
该发明还提供了一种用于图像与深度信息融合的3D增强全景环视系统的实现方法,其特征在于,具体包括以下步骤:
步骤1、根据深度相机的彩色图像和深度图像生成车辆坐标系下的目标点云;
步骤2、根据鱼眼相机的广视角图像生成车辆坐标系下的地面点云;
步骤3、生成深度信息与图像信息融合的3D全景环视图像;车模点云根据车模的三维模型下采样1000倍生成;利用PCL点云处理库将车辆坐标系下的目标点云,地面点云和车模点云统一在同一个车辆中心为坐标原点的坐标系中并做可视化显示。
进一步地,步骤1具体包括:
步骤1.1、标定深度相机中的彩色相机的和深度传感器的焦距(fx,fy)、光心坐标(cx,cy)和畸变系数(k1,k2,k3,p1,p2),用于修正彩色图像和深度图像的畸变;
相机的畸变模型由公式(1)-(2)所示:
式中:x,y为无畸变点的坐标,x′,y′为畸变点的坐标,k1,k2,k3为径向畸变参数,p1,p2为切向畸变参数,r2=x2+y2。
步骤1.2、标定彩色相机和深度传感器之间的相对位姿Tr用于找到彩色图像与深度图像的对应关系;
步骤1.3、生成目标点云;利用目标检测器对彩色图像进行目标检测;
步骤1.4、标定深度相机的位置外参T,用于将目标点云转换到车辆坐标系下。
进一步地,步骤2具体包括:
步骤2.1、生成2D全景环视图像,具体包括以下三个步骤:鱼眼图像畸变矫正,系统标定和图像融合;
步骤2.2、生成地面点云,将2D全景图像看作是由车辆中心处一个垂直于地面的虚拟相机生成的,因此利用虚拟相机的内参焦距(fv_x,fv_y)、(cv_x,cv_y)和车辆中心到地面的距离z0按照相机模型将2D全景图像转换为车辆坐标系下的地面点云;
虚拟相机的内参可由图像宽高(w,h)和图像宽高对应的真实距离计算(x,y)可得,其中cv_x=w/2,cv_y=h/2,fv_x=z0(w-cv_x)/x,fv_y=z0(h-cv_y)/y。
本发明的有益效果为:
1、该系统通过将深度信息与图像信息融合将目标物体和地面都转换为点云并统一于车辆坐标系下,消除了普通全景环视系统中物体畸变较大的情况,并且能够得到行驶中物体与车辆的实时距离,提高了驾驶的安全性和体验感。
2、统一于车辆坐标系下的车模点云,目标物体点云和地面点云可以任意视角进行投影显示,可视化效果好,便于驾驶员观察车辆周围的环境。
3、通过对深度相机彩色图像的目标检测,缩小了目标点云的生成范围,既提升了点云生成的效率,又有效地避免了噪点的干扰。
4、利用虚拟相机技术将2D全景环视图像转化为地面点云,可以方便地与车模点云和目标点云组合,从而生成同一个坐标系下3D全景环视点云。
附图说明
图1是深度信息与图像信息融合的3D增强全景环视系统传感器及处理器布置图。
图2是深度信息与图像信息融合的3D增强全景环视系统工作流程图。
图3是车辆坐标系下的目标点云生成原理图。
图4是深度相机位置外参标定装置图。
图5是车辆坐标系下的地面点云生成原理图。
具体实施方式
以下将结合附图1-5对本发明作进一步详细的阐述。
如图1所示,该实施例提供一种用于图像与深度信息融合的3D增强全景环视系统。该3D增强全景环视系统包括四个鱼眼相机,十二个深度相机,一个处理器。
其中四个鱼眼相机和四个深度相机分别设置在车头中间,车尾中间及车辆两侧后视镜处;
车头左右两侧各加装一个深度相机、车尾左右两侧各加装一个深度相机,车身左右两侧各加装两个深度相机;
所述的鱼眼相机:实时捕捉视场角不小于180度的车辆周围影像信息,由相机内的感光组件电路及控制组件对图像进行处理并转换成电脑所能识别的数字信号。
所述的深度相机:集成了彩色相机和深度传感器,可以同时采集彩色图像和对应的深度图像。
所述的处理器:为NVIDIA TX2处理器,用于处理鱼眼相机的畸变图像和深度相机的彩色图像和深度图像,生成图像信息与深度信息融合的3D增强全景环视系统。
如图2所示,为该系统的工作流程图。该系统主要分为三个功能模块:其中第一功能模块是利用深度相机生成的深度图像和彩色图像生成点云。为了提升点云系信息的有效性和减少系统的计算负载,该系统首先利用卷积神经网络提取彩色图像中常见物体(比如车辆,行人等),然后再结合对应的深度图像和深度相机的安装位置生成车辆坐标系下的目标点云,最后对目标点云进行聚类以减少噪点;第二功能模块是利用鱼眼相机生成的广视角图像生成2D全景环视图像,然后根据虚拟相机模型将2D全景环视图像转换为车辆坐标系下的地面点云;第三功能模块是将目标点云,车模点云和地面点云统一于车辆坐标系下并做可视化处理从而生成3D全景环视图像。
该实施例还提供了一种利用上述车辆3D增强全景环视系统具体实现的方法,具体包括以下步骤:
步骤1、根据深度相机的彩色图像和深度图像生成车辆坐标系下的目标点云。如图3所示,为该步骤的原理图。
步骤1.1、标定深度相机中的彩色相机的和深度传感器的焦距(fx,fy)、光心坐标(cx,cy)和畸变系数(k1,k2,k3,p1,p2)用于修正彩色图像和深度图像的畸变。
相机的畸变模型由公式(1)-(2)所示。该实例利用张正友棋盘格标定法分别获得彩色相机和深度传感器的上述内参。
式中:x,y为无畸变点的坐标,x′,y′为畸变点的坐标,k1,k2,k3为径向畸变参数,p1,p2为切向畸变参数,r2=x2+y2。
步骤1.2、标定彩色相机和深度传感器之间的相对位姿Tr用于找到彩色图像与深度图像的对应关系。深度相机标定过程中使用的4个坐标系{C},{D},{V}和{W}分别为彩色摄像机,深度摄像机的参考坐标系,标定平板参考坐标系,标定棋盘参考坐标系。假设{C}、{D}、{V}和{W}中任意2个坐标系间的相对位姿矩阵记为T={R,t},则一个坐标系中的点可通过相对位姿矩阵变换到另一个坐标系。以坐标系{D}和{C}为例,{D}中一点Xd变换到彩色摄像机坐标系{C}中对应的坐标Xc为
Xc=RrXd+tr (3)
式中:Rr为旋转变换矩阵;tr为平移向量。
利用参考坐标系{V}和{W}的共面关系,计算每幅图像中标定板的平面方程并将其视为约束方程。通过nTx-δ=0定义平面方程,其中n为单位法向量,δ为平面到坐标系{C}原点的距离,计算彩色相机和深度传感器之间的相对位姿Tr。
步骤1.3、生成目标点云。利用基于YOLOv3的目标检测器对彩色图像进行目标检测。每一个检测的目标可由一个2D的边界框表示。根据步骤1.2标定得到的彩色相机与深度传感器之间的相对位姿Tr获得2D边界框内每个像素对应的深度值d.按照公式(4)可以计算边界框内的图像在相机坐标系的点云。
式中(cx,cy),(fx,fy)为步骤1.2标定的彩色相机的光心坐标和焦距。
由于由2D目标框生成的点云只是一个大概的目标区域,包含了一些噪声点,因此该系统采用DBSCAN聚类方法对目标框生成的点云进行聚类,并移除点云数目小于20的类别。
步骤1.4、标定深度相机的位置外参T,用于将目标点云转换到车辆坐标系下。由于安装误差的存在,深度相机在车辆坐标系下的安装位置不能准确确定,因此该系统设计了一种用于标定深度相机位置外参的标定装置。如图4所示,该标定装置包括一个支架和垂直支架安装的高分辨率彩色相机。当标定深度相机位置外参时,将标定装置移至深度相机旁,然后测量标定装置相对于车辆中心的位姿T1。深度相机初始的位姿T0可由安装位置确定。深度相机与标定装置的相对位姿T01可由公式(5)计算得到。最后按照Schiller的标定方法用同一个标定板对深度相机和标定装置进行联合标定获得提升的相对位姿T01′,从而利用标定装置的位姿计算出深度相机的位姿T。
T01=T0 -1T1 (5)
步骤2、根据鱼眼相机的广视角图像生成车辆坐标系下的地面点云。如图5所示,为该步骤的原理图。
步骤2.1、2D全景环视图像的生成。全景环视图像的生成主要包括以下三个步骤:鱼眼图像畸变矫正,系统标定和图像融合。该系统首先采用一种改进的基于径向畸变的模型对鱼眼图像进行畸变矫正。然后利用车辆周围的标定布获得转为俯视图的透视变换矩阵,并根据透视变换矩阵将4幅矫正的图像转换为鸟瞰图。此外为了进一步提高实时性,该系统才有查找表的方法同时实现鱼眼图像的矫正和透视变换。最后,循环颜色调整法和局部权重插值法被用来对全景图像进行融合从而生成2D全景环视图像。
步骤2.2、地面点云的生成。该系统将2D全景图像看作是由车辆中心处一个垂直于地面的虚拟相机生成的,因此可以利用虚拟相机的内参焦距(fv_x,fv_y)、(cv_x,cv_y)和车辆中心到地面的距离z0按照相机模型将2D全景图像转换为车辆坐标系下的地面点云。虚拟相机的内参可由图像宽高(w,h)和图像宽高对应的真实距离计算(x,y)可得,其中cv_x=w/2,cv_y=h/2,fv_x=z0(w-cv_x)/x,fv_y=z0(h-cv_y)/y。
步骤3、深度信息与图像信息融合的3D全景环视图像的生成。车模的点云根据车模的三维模型下采样1000倍生成。最后利用PCL点云处理库将车辆坐标系下的目标点云,地面点云和车模统一在同一个车辆中心为坐标原点的坐标系中并做可视化显示。了便于驾驶员观察,用于显示的点云可按照任意角度进行投影至中控显示屏上显示。
虽然上面结合本发明的优选实施例对本发明的原理进行了详细的描述,本领域技术人员应该理解,上述实施例仅仅是对本发明的示意性实现方式的解释,并非对本发明包含范围的限定。实施例中的细节并不构成对本发明范围的限制,在不背离本发明的精神和范围的情况下,任何基于本技术方案的等效变换、简单替换等显而易见的改变,均落在本发明保护范围之内。
Claims (5)
1.一种用于图像与深度信息融合的3D增强全景环视系统,包括鱼眼相机,深度相机和处理器,其特征在于:
四个鱼眼相机和四个深度相机分别设置在车头中间,车尾中间及车辆两侧后视镜处;
车头左右两侧各加装一个深度相机、车尾左右两侧各加装一个深度相机,车身左右两侧各加装两个深度相机;其中:
所述鱼眼相机实时捕捉视场角不小于180度的车辆周围影像信息,由相机内的感光组件电路及控制组件对图像进行处理并转换成电脑所能识别的数字信号;所述深度相机集成了彩色相机和深度传感器,能够同时采集彩色图像和对应的深度图像;所述处理器为NVIDIA TX2处理器,用于处理鱼眼相机的畸变图像和深度相机的彩色图像和深度图像,生成图像信息与深度信息融合的3D增强全景环视系统。
2.根据权利要求1所述的用于图像与深度信息融合的3D增强全景环视系统,其特征在于:该3D增强全景环视系统通过三个功能模块进行工作,其中:
第一功能模块是利用深度相机生成的深度图像和彩色图像生成点云;通过利用卷积神经网络提取彩色图像中常见物体,然后再结合对应的深度图像和深度相机的安装位置生成车辆坐标系下的目标点云,最后对目标点云进行聚类以减少噪点;
第二功能模块是利用鱼眼相机生成的广视角图像生成2D全景环视图像,然后根据虚拟相机模型将2D全景环视图像转换为车辆坐标系下的地面点云;
第三功能模块是将目标点云,车模点云和地面点云统一于车辆坐标系下并做可视化处理从而生成3D全景环视图像。
3.一种权利要求1-2所述的用于图像与深度信息融合的3D增强全景环视系统的实现方法,其特征在于,具体包括以下步骤:
步骤1、根据深度相机的彩色图像和深度图像生成车辆坐标系下的目标点云;
步骤2、根据鱼眼相机的广视角图像生成车辆坐标系下的地面点云;
步骤3、生成深度信息与图像信息融合的3D全景环视图像;车模点云根据车模的三维模型下采样1000倍生成;利用PCL点云处理库将车辆坐标系下的目标点云,地面点云和车模点云统一在同一个车辆中心为坐标原点的坐标系中并做可视化显示。
4.根据权利要求3所述的用于图像与深度信息融合的3D增强全景环视系统的实现方法,其特征在于:步骤1具体包括:
步骤1.1、标定深度相机中的彩色相机的和深度传感器的焦距(fx,fy)、光心坐标(cx,cy)和畸变系数(k1,k2,k3,p1,p2),用于修正彩色图像和深度图像的畸变;
相机的畸变模型由公式(1)-(2)所示:
式中:x,y为无畸变点的坐标,x′,y′为畸变点的坐标,k1,k2,k3为径向畸变参数,p1,p2为切向畸变参数,r2=x2+y2。
步骤1.2、标定彩色相机和深度传感器之间的相对位姿Tr用于找到彩色图像与深度图像的对应关系;
步骤1.3、生成目标点云;利用目标检测器对彩色图像进行目标检测;
步骤1.4、标定深度相机的位置外参T,用于将目标点云转换到车辆坐标系下。
5.根据权利要求3所述的用于图像与深度信息融合的3D增强全景环视系统的实现方法,其特征在于:步骤2具体包括:
步骤2.1、生成2D全景环视图像,具体包括以下三个步骤:鱼眼图像畸变矫正,系统标定和图像融合;
步骤2.2、生成地面点云,将2D全景图像看作是由车辆中心处一个垂直于地面的虚拟相机生成的,因此利用虚拟相机的内参焦距(fv_x,fv_y)、(cv_x,cv_y)和车辆中心到地面的距离z0按照相机模型将2D全景图像转换为车辆坐标系下的地面点云;
虚拟相机的内参可由图像宽高(w,h)和图像宽高对应的真实距离计算(x,y)可得,其中cv_x=w/2,cv_y=h/2,fv_x=z0(w-cv_x)/x,fv_y=z0(h-cv_y)/y。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010343978.3A CN111559314B (zh) | 2020-04-27 | 2020-04-27 | 深度与图像信息融合的3d增强全景环视系统及实现方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010343978.3A CN111559314B (zh) | 2020-04-27 | 2020-04-27 | 深度与图像信息融合的3d增强全景环视系统及实现方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111559314A true CN111559314A (zh) | 2020-08-21 |
CN111559314B CN111559314B (zh) | 2021-08-24 |
Family
ID=72067935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010343978.3A Active CN111559314B (zh) | 2020-04-27 | 2020-04-27 | 深度与图像信息融合的3d增强全景环视系统及实现方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111559314B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329678A (zh) * | 2020-11-12 | 2021-02-05 | 山东师范大学 | 一种基于信息融合的单目行人3d定位的方法 |
CN113240734A (zh) * | 2021-06-01 | 2021-08-10 | 深圳市捷顺科技实业股份有限公司 | 一种基于鸟瞰图的车辆跨位判断方法、装置、设备及介质 |
CN113435392A (zh) * | 2021-07-09 | 2021-09-24 | 阿波罗智能技术(北京)有限公司 | 应用于自动泊车的车辆定位方法、装置及车辆 |
CN113884090A (zh) * | 2021-09-28 | 2022-01-04 | 中国科学技术大学先进技术研究院 | 智能平台车环境感知系统及其数据融合方法 |
CN113978365A (zh) * | 2021-10-28 | 2022-01-28 | 河北雄安五维智联科技有限公司 | 全向adas+360°全景融合辅助驾驶系统及方法 |
CN114371779A (zh) * | 2021-12-31 | 2022-04-19 | 北京航空航天大学 | 一种视线深度引导的视觉增强方法 |
WO2022222121A1 (zh) * | 2021-04-23 | 2022-10-27 | 华为技术有限公司 | 一种全景图像的生成方法、车载图像处理装置及车辆 |
CN113240734B (zh) * | 2021-06-01 | 2024-05-17 | 深圳市捷顺科技实业股份有限公司 | 一种基于鸟瞰图的车辆跨位判断方法、装置、设备及介质 |
Citations (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090079828A1 (en) * | 2007-09-23 | 2009-03-26 | Volkswagen Of America, Inc. | Camera System for a Vehicle and Method for Controlling a Camera System |
US20110140656A1 (en) * | 2009-04-30 | 2011-06-16 | Gary Starr | Charging station with protective door |
DE102011051052A1 (de) * | 2011-06-14 | 2012-12-20 | Amad Mennekes Holding Gmbh & Co. Kg | Ladestation für Stromverbraucher |
CN104240258A (zh) * | 2014-09-30 | 2014-12-24 | 苏州智华汽车电子有限公司 | 一种基于车联网的全景环视系统标定方法、装置及系统 |
CN105059190A (zh) * | 2015-08-17 | 2015-11-18 | 上海交通大学 | 基于视觉的汽车开门碰撞预警装置及方法 |
KR101583663B1 (ko) * | 2014-04-30 | 2016-01-12 | 아진산업(주) | 차량용 카메라의 교정판 제공 방법 |
CN105711501A (zh) * | 2016-04-19 | 2016-06-29 | 深圳市航盛电子股份有限公司 | 一种基于汽车环视相机的盲区中车辆监测方法及系统 |
CN105745122A (zh) * | 2013-09-23 | 2016-07-06 | 大众汽车有限公司 | 用于显示车辆周围环境的驾驶员辅助系统 |
CN105976377A (zh) * | 2016-05-09 | 2016-09-28 | 西安电子科技大学 | 车载鱼眼摄像头自标定的方法 |
US20170019657A1 (en) * | 2013-11-26 | 2017-01-19 | Mobileye Vision Technologies Ltd. | Stereo auto-calibration from structure-from-motion |
CN106650809A (zh) * | 2016-12-20 | 2017-05-10 | 福州大学 | 一种车载激光点云目标分类方法和系统 |
US20170134713A1 (en) * | 2015-11-06 | 2017-05-11 | Toppano Co., Ltd. | Image calibrating, stitching and depth rebuilding method of a panoramic fish-eye camera and a system thereof |
CN106846415A (zh) * | 2017-01-24 | 2017-06-13 | 长沙全度影像科技有限公司 | 一种多路鱼眼相机双目标定装置及方法 |
JP2017108387A (ja) * | 2015-10-28 | 2017-06-15 | トッパノ カンパニ, リミテッド.Toppano Co., Ltd. | パノラマ魚眼カメラの画像較正、スティッチ、および深さ再構成方法、ならびにそのシステム |
CN106915303A (zh) * | 2017-01-22 | 2017-07-04 | 西安科技大学 | 基于深度数据和鱼眼图像的汽车a柱盲区透视方法 |
CN106952311A (zh) * | 2017-03-02 | 2017-07-14 | 山东省科学院自动化研究所 | 基于全景拼接数据映射表的辅助泊车系统及方法 |
CN107223269A (zh) * | 2016-12-29 | 2017-09-29 | 深圳前海达闼云端智能科技有限公司 | 三维场景定位方法和装置 |
CN108257161A (zh) * | 2018-01-16 | 2018-07-06 | 重庆邮电大学 | 基于多相机的车辆环境三维重构和运动估计系统及方法 |
CN108263283A (zh) * | 2018-01-25 | 2018-07-10 | 长沙立中汽车设计开发股份有限公司 | 多编组变角度车辆全景环视系统标定及拼接方法 |
CN108389157A (zh) * | 2018-01-11 | 2018-08-10 | 江苏四点灵机器人有限公司 | 一种三维全景图像快速拼接方法 |
CN108805910A (zh) * | 2018-06-01 | 2018-11-13 | 海信集团有限公司 | 多目车载记录仪、目标检测方法、智能驾驶系统及汽车 |
CN109271861A (zh) * | 2018-08-15 | 2019-01-25 | 武汉中海庭数据技术有限公司 | 多尺度融合的点云交通标识牌自动提取方法 |
CN109299656A (zh) * | 2018-08-13 | 2019-02-01 | 浙江零跑科技有限公司 | 一种车载视觉系统场景视深确定方法 |
US20190088011A1 (en) * | 2017-09-20 | 2019-03-21 | Boe Technology Group Co., Ltd. | Method, device, terminal and system for visualization of vehicle's blind spot and a vehicle |
CN109510956A (zh) * | 2018-12-31 | 2019-03-22 | 广州赛特智能科技有限公司 | 一种基于kinect双目摄像头噪点滤波系统及方法 |
CN109741405A (zh) * | 2019-01-21 | 2019-05-10 | 同济大学 | 一种基于对偶结构光rgb-d相机的深度信息采集系统 |
CN109741382A (zh) * | 2018-12-21 | 2019-05-10 | 西安科技大学 | 一种基于Kinect V2的实时三维重建方法与系统 |
CN109754415A (zh) * | 2017-11-02 | 2019-05-14 | 郭宇铮 | 一种基于多组双目视觉的车载全景立体感知系统 |
CN109978949A (zh) * | 2019-03-26 | 2019-07-05 | 南开大学 | 基于计算机视觉的农作物识别与特征点三维坐标提取的一种方法 |
CN110084851A (zh) * | 2019-04-19 | 2019-08-02 | 湖北亿咖通科技有限公司 | 一种双目点云生成方法及系统 |
CN110111603A (zh) * | 2019-05-10 | 2019-08-09 | 广州达泊智能科技有限公司 | 基于三维检测技术的停车辅助方法、装置及系统 |
CN110428361A (zh) * | 2019-07-25 | 2019-11-08 | 北京麒麟智能科技有限公司 | 一种基于人工智能的多路图像采集方法 |
CN110533720A (zh) * | 2019-08-20 | 2019-12-03 | 西安电子科技大学 | 基于联合约束的语义slam系统及方法 |
-
2020
- 2020-04-27 CN CN202010343978.3A patent/CN111559314B/zh active Active
Patent Citations (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090079828A1 (en) * | 2007-09-23 | 2009-03-26 | Volkswagen Of America, Inc. | Camera System for a Vehicle and Method for Controlling a Camera System |
US20110140656A1 (en) * | 2009-04-30 | 2011-06-16 | Gary Starr | Charging station with protective door |
DE102011051052A1 (de) * | 2011-06-14 | 2012-12-20 | Amad Mennekes Holding Gmbh & Co. Kg | Ladestation für Stromverbraucher |
CN105745122A (zh) * | 2013-09-23 | 2016-07-06 | 大众汽车有限公司 | 用于显示车辆周围环境的驾驶员辅助系统 |
US20170019657A1 (en) * | 2013-11-26 | 2017-01-19 | Mobileye Vision Technologies Ltd. | Stereo auto-calibration from structure-from-motion |
KR101583663B1 (ko) * | 2014-04-30 | 2016-01-12 | 아진산업(주) | 차량용 카메라의 교정판 제공 방법 |
CN104240258A (zh) * | 2014-09-30 | 2014-12-24 | 苏州智华汽车电子有限公司 | 一种基于车联网的全景环视系统标定方法、装置及系统 |
CN105059190A (zh) * | 2015-08-17 | 2015-11-18 | 上海交通大学 | 基于视觉的汽车开门碰撞预警装置及方法 |
JP2017108387A (ja) * | 2015-10-28 | 2017-06-15 | トッパノ カンパニ, リミテッド.Toppano Co., Ltd. | パノラマ魚眼カメラの画像較正、スティッチ、および深さ再構成方法、ならびにそのシステム |
US20170134713A1 (en) * | 2015-11-06 | 2017-05-11 | Toppano Co., Ltd. | Image calibrating, stitching and depth rebuilding method of a panoramic fish-eye camera and a system thereof |
CN105711501A (zh) * | 2016-04-19 | 2016-06-29 | 深圳市航盛电子股份有限公司 | 一种基于汽车环视相机的盲区中车辆监测方法及系统 |
CN105976377A (zh) * | 2016-05-09 | 2016-09-28 | 西安电子科技大学 | 车载鱼眼摄像头自标定的方法 |
CN106650809A (zh) * | 2016-12-20 | 2017-05-10 | 福州大学 | 一种车载激光点云目标分类方法和系统 |
CN107223269A (zh) * | 2016-12-29 | 2017-09-29 | 深圳前海达闼云端智能科技有限公司 | 三维场景定位方法和装置 |
CN106915303A (zh) * | 2017-01-22 | 2017-07-04 | 西安科技大学 | 基于深度数据和鱼眼图像的汽车a柱盲区透视方法 |
CN106846415A (zh) * | 2017-01-24 | 2017-06-13 | 长沙全度影像科技有限公司 | 一种多路鱼眼相机双目标定装置及方法 |
CN106952311A (zh) * | 2017-03-02 | 2017-07-14 | 山东省科学院自动化研究所 | 基于全景拼接数据映射表的辅助泊车系统及方法 |
US20190088011A1 (en) * | 2017-09-20 | 2019-03-21 | Boe Technology Group Co., Ltd. | Method, device, terminal and system for visualization of vehicle's blind spot and a vehicle |
CN109754415A (zh) * | 2017-11-02 | 2019-05-14 | 郭宇铮 | 一种基于多组双目视觉的车载全景立体感知系统 |
CN108389157A (zh) * | 2018-01-11 | 2018-08-10 | 江苏四点灵机器人有限公司 | 一种三维全景图像快速拼接方法 |
CN108257161A (zh) * | 2018-01-16 | 2018-07-06 | 重庆邮电大学 | 基于多相机的车辆环境三维重构和运动估计系统及方法 |
CN108263283A (zh) * | 2018-01-25 | 2018-07-10 | 长沙立中汽车设计开发股份有限公司 | 多编组变角度车辆全景环视系统标定及拼接方法 |
CN108805910A (zh) * | 2018-06-01 | 2018-11-13 | 海信集团有限公司 | 多目车载记录仪、目标检测方法、智能驾驶系统及汽车 |
CN109299656A (zh) * | 2018-08-13 | 2019-02-01 | 浙江零跑科技有限公司 | 一种车载视觉系统场景视深确定方法 |
CN109271861A (zh) * | 2018-08-15 | 2019-01-25 | 武汉中海庭数据技术有限公司 | 多尺度融合的点云交通标识牌自动提取方法 |
CN109741382A (zh) * | 2018-12-21 | 2019-05-10 | 西安科技大学 | 一种基于Kinect V2的实时三维重建方法与系统 |
CN109510956A (zh) * | 2018-12-31 | 2019-03-22 | 广州赛特智能科技有限公司 | 一种基于kinect双目摄像头噪点滤波系统及方法 |
CN109741405A (zh) * | 2019-01-21 | 2019-05-10 | 同济大学 | 一种基于对偶结构光rgb-d相机的深度信息采集系统 |
CN109978949A (zh) * | 2019-03-26 | 2019-07-05 | 南开大学 | 基于计算机视觉的农作物识别与特征点三维坐标提取的一种方法 |
CN110084851A (zh) * | 2019-04-19 | 2019-08-02 | 湖北亿咖通科技有限公司 | 一种双目点云生成方法及系统 |
CN110111603A (zh) * | 2019-05-10 | 2019-08-09 | 广州达泊智能科技有限公司 | 基于三维检测技术的停车辅助方法、装置及系统 |
CN110428361A (zh) * | 2019-07-25 | 2019-11-08 | 北京麒麟智能科技有限公司 | 一种基于人工智能的多路图像采集方法 |
CN110533720A (zh) * | 2019-08-20 | 2019-12-03 | 西安电子科技大学 | 基于联合约束的语义slam系统及方法 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112329678A (zh) * | 2020-11-12 | 2021-02-05 | 山东师范大学 | 一种基于信息融合的单目行人3d定位的方法 |
CN112329678B (zh) * | 2020-11-12 | 2023-03-24 | 山东师范大学 | 一种基于信息融合的单目行人3d定位的方法 |
WO2022222121A1 (zh) * | 2021-04-23 | 2022-10-27 | 华为技术有限公司 | 一种全景图像的生成方法、车载图像处理装置及车辆 |
CN113240734A (zh) * | 2021-06-01 | 2021-08-10 | 深圳市捷顺科技实业股份有限公司 | 一种基于鸟瞰图的车辆跨位判断方法、装置、设备及介质 |
CN113240734B (zh) * | 2021-06-01 | 2024-05-17 | 深圳市捷顺科技实业股份有限公司 | 一种基于鸟瞰图的车辆跨位判断方法、装置、设备及介质 |
CN113435392A (zh) * | 2021-07-09 | 2021-09-24 | 阿波罗智能技术(北京)有限公司 | 应用于自动泊车的车辆定位方法、装置及车辆 |
CN113884090A (zh) * | 2021-09-28 | 2022-01-04 | 中国科学技术大学先进技术研究院 | 智能平台车环境感知系统及其数据融合方法 |
CN113978365A (zh) * | 2021-10-28 | 2022-01-28 | 河北雄安五维智联科技有限公司 | 全向adas+360°全景融合辅助驾驶系统及方法 |
CN114371779A (zh) * | 2021-12-31 | 2022-04-19 | 北京航空航天大学 | 一种视线深度引导的视觉增强方法 |
CN114371779B (zh) * | 2021-12-31 | 2024-02-20 | 北京航空航天大学 | 一种视线深度引导的视觉增强方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111559314B (zh) | 2021-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111559314B (zh) | 深度与图像信息融合的3d增强全景环视系统及实现方法 | |
US9858639B2 (en) | Imaging surface modeling for camera modeling and virtual view synthesis | |
JP5124147B2 (ja) | カメラ校正装置及び方法並びに車両 | |
JP5455124B2 (ja) | カメラ姿勢パラメータ推定装置 | |
CN108765496A (zh) | 一种多视点汽车环视辅助驾驶系统及方法 | |
JP4695167B2 (ja) | 車両の後方視認システムの歪みを補正し且つ像を強調する方法及び装置 | |
EP2437494B1 (en) | Device for monitoring area around vehicle | |
JP5729158B2 (ja) | 駐車支援装置および駐車支援方法 | |
WO2019192359A1 (zh) | 一种车载全景视频显示系统、方法及车载控制器 | |
US20140114534A1 (en) | Dynamic rearview mirror display features | |
US20090322878A1 (en) | Image Processor, Image Processing Method, And Vehicle Including Image Processor | |
JP2008187564A (ja) | カメラ校正装置及び方法並びに車両 | |
JP2009129001A (ja) | 運転支援システム、車両、立体物領域推定方法 | |
JP2006268076A (ja) | 運転支援システム | |
KR102057021B1 (ko) | 패널 변환 | |
JP2015232442A (ja) | 画像処理装置及び車両前方監視装置 | |
KR102124298B1 (ko) | 후방 교차 교통-퀵 룩스 | |
TW201605247A (zh) | 影像處理系統及方法 | |
KR101816068B1 (ko) | 차량 주변 감지 시스템 및 이를 이용한 차량 주변 감지 방법 | |
JP2013024712A (ja) | 複数カメラの校正方法及び校正システム | |
JP2012019552A (ja) | 運転支援装置 | |
JP2007134961A (ja) | 車両検出装置及びこれを用いた車両用表示装置 | |
CN111626227A (zh) | 一种基于双目视觉车底透视全景系统的实现方法 | |
JP7074546B2 (ja) | 画像処理装置および方法 | |
JP2009077022A (ja) | 運転支援システム及び車両 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |