CN113724133B - 一种非刚体连接的拖挂车360°环视拼接方法 - Google Patents

一种非刚体连接的拖挂车360°环视拼接方法 Download PDF

Info

Publication number
CN113724133B
CN113724133B CN202110901759.7A CN202110901759A CN113724133B CN 113724133 B CN113724133 B CN 113724133B CN 202110901759 A CN202110901759 A CN 202110901759A CN 113724133 B CN113724133 B CN 113724133B
Authority
CN
China
Prior art keywords
acquiring
fusion area
determining
steering
vertex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110901759.7A
Other languages
English (en)
Other versions
CN113724133A (zh
Inventor
仇开金
张琴
王述良
许端
程建伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Jimu Intelligent Technology Co ltd
Original Assignee
Wuhan Jimu Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Jimu Intelligent Technology Co ltd filed Critical Wuhan Jimu Intelligent Technology Co ltd
Priority to CN202110901759.7A priority Critical patent/CN113724133B/zh
Publication of CN113724133A publication Critical patent/CN113724133A/zh
Application granted granted Critical
Publication of CN113724133B publication Critical patent/CN113724133B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本发明提供了一种非刚体连接的拖挂车360°环视拼接方法,包括:获取各个视角方向的鱼眼图像,进行内外参标定及平面投影建模,确定模型每个顶点的世界坐标,确定每个顶点世界坐标与图像纹理坐标的对应关系,确定世界坐标系下的融合区域,并计算融合区域的权重,再将模型每个顶点的世界坐标、对应的纹理坐标信息,以及融合区域的权重保存为查询表;加载查询表,获取鱼眼图像数据,计算所有图像的光照补偿因子,对纹理数据进行管理,获取车头与车厢的转向夹角,再根据融合区域的权重及转向夹角,最后获取拖挂车的avm拼接画面。本发明针对非刚体连接的拖挂车,可提供更加全面的车辆周围路况信息。

Description

一种非刚体连接的拖挂车360°环视拼接方法
技术领域
本公开涉及车载环视系统技术领域,尤其涉及一种非刚体连接的拖挂车360°环视拼接方法。
背景技术
随着汽车工业的快速发展,汽车拥有量迅速增多,对安全驾驶提出了新的需求和挑战,特别的,驾驶过程中的未能及时发现车辆周围异常情况是引发交通事故的重要原因之一,特别是在驾驶环境比较紧凑的时候进行驾驶。
现有的车载环视主要有:(1)单个视角进行监控,常见的如倒车影像,只能显示某一个方向的驾驶路况。(2)未加入融合过程的2D环视,在车辆四周挂载鱼眼相机,进行标定重投影以后,直接将各个相机的画面按照挂载顺序组合显示,画面之间具有明显的间隙。(3)具有融合功能的环视,通过外参的标定,将鱼眼图像进行重投影,并对融合区域进行加权融合,实现最终的无缝拼接,但是要求车辆为刚体,不适用于车头与车厢分离的半挂车类型。
现有的车载环视主要存在以下问题:(1)未进行拼接的视频监控只能提供单一视角,不够灵活方便,难以及时提供车身周围的异常驾驶环境信息。(2)现有环视产品通过拼接4-8路鱼眼画面得到无缝拼接的画面,但是忽略了牵引车与挂车之间不是刚性链接,车辆转弯将导致车头部分出现在拼接画面中,无法起到应有的拼接效果。部分厂家采用昂贵的角度传感器,获取牵引车与挂车之间的夹角,然后再在原有2D环视基础上进行转向并拼接,但是部分车型为了安全考虑,并不能在牵引车与车厢的链接处安装角度传感器。
发明内容
有鉴于此,本公开实施例提供一种非刚体连接的拖挂车360°环视拼接方法,该方法针对非刚体连接的拖挂车,可提供更加全面的车辆周围路况信息。
为了实现上述目的,本发明提供如下技术方案:
一种非刚体连接的拖挂车360°环视拼接方法,包括:
获取拖挂车的车头与车厢各个视角方向的鱼眼图像,进行内外参标定及平面投影建模,确定模型每个顶点的世界坐标,根据内、外参确定每个顶点世界坐标与图像纹理坐标的对应关系,确定世界坐标系下的融合区域,并计算融合区域的权重,再将模型每个顶点的世界坐标、对应的纹理坐标信息,以及融合区域的权重保存为查询表;
加载查询表,获取鱼眼图像数据,计算所有图像的光照补偿因子,对纹理数据进行管理,获取车头与车厢的转向夹角,再根据融合区域的权重及转向夹角,最后获取拖挂车的avm拼接画面。
进一步地,具体包括,建立三角化的网格投影模型,确定每个顶点的世界坐标及三角形索引顺序,再根据内、外参确定每个顶点世界坐标与图像纹理坐标的对应关系。
进一步地,建立碗状模型,获取三角化的网格信息,再直接根据模型表达式计算网格的世界坐标信息。
进一步地,所述根据内、外参确定每个顶点世界坐标与图像纹理坐标的对应关系包括,利用鱼眼模型建立鱼眼图像上的像素点与模型网格点的关系。
进一步地,还包括,确定世界坐标系下的融合区域,再计算该区域内网格点与边界的夹角,将该夹角与该融合区域的角度的比值作为融合区域的权重。
进一步地,使用重合角度为30°的融合区域计算该区域内网格点与边界的夹角,将该夹角与30°的比值作为融合区域的权重。
进一步地,所述获取鱼眼图像数据包括:获取鱼眼图像的YUV数据,再计算图像的光照补偿因子,采用像素缓冲对象对YUV数据进行管理。
进一步地,具体还包括,在车头、车厢各安装三路鱼眼相机,先获取方向盘转角信号,根转角信号获知转向的方向,当方向盘居中时,初始化两路车头与车厢的转向夹角为0,当收到转向信号后,通过imu实时计算出车头与车厢的转向夹角。
进一步地,具体还包括,基于gpu在嵌入式终端使用opengles进行实时渲染,获取avm拼接画面。
进一步地,采用pnp算法求解相机外参,所述pnp算法为包括epnp、迭代法和p3p中的任意一种。
本发明的非刚体连接的拖挂车360°环视拼接方法,该方法针对非刚体连接的拖挂车,主要分为离线阶段与在线阶段,大量计算在离线阶段执行,在线阶段直接加载离线阶段的运算结果,使用gpu进行渲染,更加高效。相对一般2D环视,不需要满足车辆为刚体链接的要求,当方向盘的转角不能真实放映出转向角时,可以使用更加廉价的imu实现昂贵角度传感器的功能,提供更加全面的车辆周围路况信息。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明的非刚体连接的拖挂车360°环视拼接方法示意图;
图2为本发明一个实施例中的外参标定棋盘格摆放示意图;
图3为本发明一个实施例中的融合区域示意图。
具体实施方式
下面结合附图对本公开实施例进行详细描述。
以下通过特定的具体实例说明本公开的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本公开的其他优点与功效。显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。本公开还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本公开的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
还需要说明的是,以下实施例中所提供的图示仅以示意方式说明本公开的基本构想,图式中仅显示与本公开中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
另外,在以下描述中,提供具体细节是为了便于透彻理解实例。然而,所属领域的技术人员将理解,可在没有这些特定细节的情况下实践所述方面。
本公开实施例提供一种非刚体连接的拖挂车360°环视拼接方法,包括:
获取拖挂车的车头与车厢各个视角方向的鱼眼图像,进行内外参标定及平面投影建模,确定模型每个顶点的世界坐标,根据内、外参确定每个顶点世界坐标与图像纹理坐标的对应关系,确定世界坐标系下的融合区域,并计算融合区域的权重,再将模型每个顶点的世界坐标、对应的纹理坐标信息,以及融合区域的权重保存为查询表;
加载查询表,获取鱼眼图像数据,计算所有图像的光照补偿因子,对纹理数据进行管理,获取车头与车厢的转向夹角,再根据融合区域的权重及转向夹角,最后获取拖挂车的avm拼接画面。
本发明的技术方案中:经过内参标定获取鱼眼相机的畸变参数及相机焦距等内参,再摆放棋盘格计算每个相机的外参。建立平面投影模型,确定每个顶点的世界坐标及三角形索引顺序,再根据内、外参确定每个顶点世界坐标对应的纹理图像坐标,接着计算世界坐标系下重合区域的权重,最后将世界坐标与纹理坐标、融合区域的权重保存为查询表。
车头、车厢各安装三路鱼眼相机可获得两个270°环视拼接的画面,再将这两个环视画面拼接在一起,其中融合区域以车头与挂车车厢连接点作为中心;为了获取车厢与车头的相对旋转角度,可在车厢与车头同一中轴线上分别安装一个imu(InertialMeasurement Unit惯性传感器),两个imu的偏航角差值即车头与车厢的相对旋转角度,方向盘转向can信号可提供车头转向方向;经过内、外参标定,获取静止状态时车头、车厢世界坐标与图像坐标之间的映射关系;基于gpu(Graphics Processing Unit图形处理器),在嵌入式终端使用opengles(开放式图形库)进行实时渲染,其建立的车身坐标中心点在车厢,车头的画面可根据imu之间的偏航角夹角进行实时旋转,融合区域可保持固定不动仍以车头与车厢的连接点作为融合中心,旋转的车头部分是以连接点到车前方所有区域。
参考附图1,本公开实施例的非刚体连接的拖挂车360°环视拼接方法,该方法分为离线阶段与在线阶段,大量计算在离线阶段执行,在线阶段直接加载离线阶段的运算结果,使用gpu进行渲染,更加高效,具体的执行步骤如下:
离线阶段:
(1)输入鱼眼图像
获取各个视角方向的鱼眼图像
(2)内参标定
获得包含已知棋盘格大小与个数的标定图片,进行内参估计,常用的标定方法有张正友标定法、全向标定方法(Improved wide-angle,fisheye and omnidirectionalcamera calibration);
(3)外参标定
摆放棋盘格在车辆特定位置,检测图像上棋盘格角点信息,使用pnp求解相机外参,常用的pnp求解算法有epnp(Efficient Perspective-n-Point Camera PoseEstimation)、迭代法、p3p(Complete Solution Classification for the Perspective-Three-Point Problem);
(4)建模并确定每个网格点的世界坐标
建立三角化的网格投影模型,常用的建模方法有使用专业建模软件绘制碗状模型,获取三角化的网格信息,还有直接根据模型表达式计算网格信息;
(5)根据内外参确定模型与图像纹理的对应关系
利用鱼眼模型建立鱼眼图像上的像素点与模型网格点的关系。
(6)确定融合区域与融合权重
确定融合区域的大小,本方法使用重合30°的区域计算该区域内网格点与边界的夹角,使用夹角与30°的比值作为融合权重。最后将模型网格点的坐标信息、对应的纹理信息以及融合区域的权重保存为查询表LUT;
在线阶段:
(1)加载查询表LUT
加载一次查询表,获取模型网格点的世界坐标、对应纹理坐标及融合权重信息;
(2)获取鱼眼图像
采取鱼眼图像的YUV数据;
(3)计算图像的光照补偿因子
所有鱼眼相机画面Y通道的光照补偿因子;
(4)采用PBO(pixel_buffer_object像素缓冲对象)对纹理信息进行管理使用像素缓冲对象管理输入的yuv数据,进行更加高效的cpu到gpu传输;
(5)获取imu夹角(方向盘不能真实反映转向角度)
获取方向盘转角can信号,根据can信号获知转向的方向,当方向盘居中的时候,初始化两个imu的夹角为0,收到转向信号后,初始化两个imu的偏航角度θ1,θ2,车头与车厢的旋转角度即为两个imu的偏航角差值θd=θ12
(6)Gpu渲染
根据融合权重及转向夹角,获取avm拼接画面。
实施例1
1、相机内参标定
使用哑光材料制作一个棋盘格,规格为12cm*6cm,每个格子的长宽皆为25mm,旋转棋盘格拍摄多张棋盘格在画面内的图片,一般为10~30张;
使用C`Mei相机模型估计内参以及畸变参数D=[k1 k2 k3 k4k5],投影至正则化平面的参数ξ。
2、相机外参标定
按如图2所示摆放棋盘格;
棋盘格需与车身平行,测量参数:
(1)前方棋盘格左边缘与左侧棋盘格左边缘的距离AB:L0;
(2)前方棋盘格左边缘与右侧棋盘格左边缘的距离CD:L1;
(3)前方棋盘格上边沿到左侧棋盘格上边沿的距离AE:L2;
(4)前方棋盘格上边沿到后方棋盘格下边沿的距离BF:L3;
(5)前方棋盘格左边沿到车身左边沿的距离L4,此值有正负号,H在G的左侧,为负值,在G的右侧为正值;
(6)前方棋盘格上边沿到车头的距离BG:L5;
以车身中心为坐标系原点,建立统一世界坐标系,利用上述获取的参数计算得到每个棋盘格角点世界坐标,如前视棋盘格世界坐标点其中n是棋盘格内角点数量,以地面为XY平面,则Z=0。棋盘格角点检测,得到每个角点在画面中的像素位置/>利用pnp迭代法求解相机外参R、T。
3、确定融合区域权重
如图3所示,以左前两幅图像的融合区域为例,以车辆左上角为参考点建立一个正方形,计算虚线之间θ范围内的点P与实线所成的角度α,则P在左边图像的权重为w1=(α+θ/2)/(2θ),P在另外一幅图像的权重为w2=1-w1。θ可取30,此值可根据实际效果进行调整。
α计算过程如下:
4、生成查询表
在标定获取到相机的内参、外参以后,根据建立的3d模型,计算每个顶点世界坐标对应的图像坐标:
其中图像坐标(xu,yu)为去畸变后的图像点,需逆投影到原始鱼眼头像上(xd,yd)。
所以最终将得到每个世界坐标点对应相邻两幅图像上的两个像素点及权重w1,w2。
上述步骤将涉及到大量的计算过程,当镜头位置固定,只需进行一次标定确定好查询表进行保存即可。运行阶段只需加载一次查询表获取渲染模型与纹理的对应关系,渲染步骤为opengles常用步骤,在此不做赘述。
5、第五步是渲染单路270°环视的过程,车头与车厢处分别有三路鱼眼摄像头组成两幅270°环视画面,再融合这两幅画面,融合过程如下:
1)确定连接点世界坐标。获取连接点到车头的距离d,车长为L,则可知连接点在车身坐标系下的坐标为
2)确定两幅270°环视拼接画面的融合权重。确定融合宽度Lmerge,此值可调整,默认为连接点上下各1m宽度(即Lmerge=2000mm),各点P计算公式如下:
6、输入imu偏航角θd,保持车厢部分画面不动,旋转车头部分,再融合两幅画面得到最终拼接图。
以上所述,仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以权利要求的保护范围为准。

Claims (6)

1.一种非刚体连接的拖挂车360°环视拼接方法,其特征在于,包括:
获取拖挂车的车头与车厢各个视角方向的鱼眼图像,进行内外参标定及平面投影建模,确定模型每个顶点的世界坐标,根据内、外参确定每个顶点世界坐标与图像纹理坐标的对应关系,确定世界坐标系下的融合区域,并计算融合区域的权重,再将模型每个顶点的世界坐标、对应的纹理坐标信息,以及融合区域的权重保存为查询表;
加载查询表,获取鱼眼图像数据,计算所有图像的光照补偿因子,对纹理数据进行管理,获取车头与车厢的转向夹角,再根据融合区域的权重及转向夹角,最后获取拖挂车的avm拼接画面;
具体包括,建立三角化的网格投影模型,确定每个顶点的世界坐标及三角形索引顺序,再根据内、外参确定每个顶点世界坐标与图像纹理坐标的对应关系;
建立碗状模型,获取三角化的网格信息,再直接根据模型表达式计算网格的世界坐标信息;
还包括,确定世界坐标系下的融合区域,再计算该区域内网格点与边界的夹角,将该夹角与该融合区域的角度的比值作为融合区域的权重;
具体还包括,在车头、车厢各安装三路鱼眼相机,先获取方向盘转角信号,根据转角信号获知转向的方向,当方向盘居中时,初始化两路车头与车厢的转向夹角为0,当收到转向信号后,通过两个imu的偏航角差值实时计算出车头与车厢的转向夹角。
2.根据权利要求1所述的非刚体连接的拖挂车360°环视拼接方法,其特征在于,所述根据内、外参确定每个顶点世界坐标与图像纹理坐标的对应关系包括,利用鱼眼模型建立鱼眼图像上的像素点与模型网格点的关系。
3.根据权利要求1所述的非刚体连接的拖挂车360°环视拼接方法,其特征在于,使用重合角度为30°的融合区域计算该区域内网格点与边界的夹角,将该夹角与30°的比值作为融合区域的权重。
4.根据权利要求1所述的非刚体连接的拖挂车360°环视拼接方法,其特征在于,所述获取鱼眼图像数据包括:获取鱼眼图像的YUV数据,再计算图像的光照补偿因子,采用像素缓冲对象对YUV数据进行管理。
5.根据权利要求1所述的非刚体连接的拖挂车360°环视拼接方法,其特征在于,具体还包括,基于gpu在嵌入式终端使用opengles进行实时渲染,获取avm拼接画面。
6.根据权利要求1所述的非刚体连接的拖挂车360°环视拼接方法,其特征在于,采用pnp算法求解相机外参,所述pnp算法为包括epnp、迭代法和p3p中的任意一种。
CN202110901759.7A 2021-08-06 2021-08-06 一种非刚体连接的拖挂车360°环视拼接方法 Active CN113724133B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110901759.7A CN113724133B (zh) 2021-08-06 2021-08-06 一种非刚体连接的拖挂车360°环视拼接方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110901759.7A CN113724133B (zh) 2021-08-06 2021-08-06 一种非刚体连接的拖挂车360°环视拼接方法

Publications (2)

Publication Number Publication Date
CN113724133A CN113724133A (zh) 2021-11-30
CN113724133B true CN113724133B (zh) 2024-03-05

Family

ID=78675071

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110901759.7A Active CN113724133B (zh) 2021-08-06 2021-08-06 一种非刚体连接的拖挂车360°环视拼接方法

Country Status (1)

Country Link
CN (1) CN113724133B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116202424B (zh) * 2023-04-28 2023-08-04 深圳一清创新科技有限公司 车身区域检测方法、牵引车及牵引车避障系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107627959A (zh) * 2017-09-20 2018-01-26 鹰驾科技(深圳)有限公司 机动车的全景视频监测方法及系统
CN108765496A (zh) * 2018-05-24 2018-11-06 河海大学常州校区 一种多视点汽车环视辅助驾驶系统及方法
WO2020023206A1 (en) * 2018-07-26 2020-01-30 Trimble Inc. Vehicle manual guidance systems with steering wheel angle sensors and road wheel angle sensors
WO2020138471A1 (ja) * 2018-12-28 2020-07-02 愛知製鋼株式会社 車両の走行制御方法及び車両制御システム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113195342B (zh) * 2018-12-31 2023-01-31 动态Ad有限责任公司 转向角度校准

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107627959A (zh) * 2017-09-20 2018-01-26 鹰驾科技(深圳)有限公司 机动车的全景视频监测方法及系统
CN108765496A (zh) * 2018-05-24 2018-11-06 河海大学常州校区 一种多视点汽车环视辅助驾驶系统及方法
WO2020023206A1 (en) * 2018-07-26 2020-01-30 Trimble Inc. Vehicle manual guidance systems with steering wheel angle sensors and road wheel angle sensors
WO2020138471A1 (ja) * 2018-12-28 2020-07-02 愛知製鋼株式会社 車両の走行制御方法及び車両制御システム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Mohamed Moussa.etc.Steering Angle Assisted Vehicular Navigation Using Portable Devices in GNSS-Denied Environments.《Sensors 》.2019,全文. *
任加伟.鱼眼摄像头图像拼接及远程全景监控的研究.《中国优秀硕士学位论文全文数据库 信息科技辑》.2020,I138-1133. *
苏慧祥.光电桅杆工作姿态测试技术研究.《中国优秀硕士学位论文全文数据库 信息科技辑》.2018, I135-15. *

Also Published As

Publication number Publication date
CN113724133A (zh) 2021-11-30

Similar Documents

Publication Publication Date Title
CN108263283B (zh) 多编组变角度车辆全景环视系统标定及拼接方法
US10434945B2 (en) Method and device for displaying an image of the surroundings of a vehicle combination
JP5455124B2 (ja) カメラ姿勢パラメータ推定装置
JP5072576B2 (ja) 画像表示方法および画像表示装置
CN111223038B (zh) 一种车载环视图像的自动拼接方法及显示装置
CN107660337B (zh) 用于从鱼眼摄像机产生组合视图的系统及方法
US8817079B2 (en) Image processing apparatus and computer-readable recording medium
CN107792179B (zh) 一种基于车载环视系统的泊车引导方法
CN112224132B (zh) 一种车用全景环视障碍物预警方法
KR102253553B1 (ko) 사발형 이미징 시스템에서의 물체 가시화
US20160098815A1 (en) Imaging surface modeling for camera modeling and virtual view synthesis
US20210329169A1 (en) Using real time ray tracing for lens remapping
CN102163331A (zh) 采用标定方法的图像辅助系统
JP2018531530A5 (zh)
JP2010231276A (ja) 画像処理方法及び画像処理装置
CN107888894A (zh) 一种立体车载环视方法、系统及车载中控装置
CN112070886B (zh) 矿用自卸车的影像监控方法及相关设备
CN113724133B (zh) 一种非刚体连接的拖挂车360°环视拼接方法
CN111798375A (zh) 环视图像拼接方法、系统、装置、存储介质和搅拌车
JP5405809B2 (ja) 車両周辺監視装置およびカメラ位置・姿勢判定方法
CN115936995A (zh) 一种车辆四路鱼眼摄像头全景拼接方法
CN110400255B (zh) 车辆全景影像的生成方法、系统和车辆
CN113313813A (zh) 一种可主动预警的车载3d全景环视系统
KR101398068B1 (ko) 차량 설치 카메라 외부 파라미터 추정 방법 및 장치
KR101331893B1 (ko) 차량 설치 카메라 외부 파라미터 추정 방법 및 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant