CN110717945B - 一种视觉标定方法、车机及汽车 - Google Patents

一种视觉标定方法、车机及汽车 Download PDF

Info

Publication number
CN110717945B
CN110717945B CN201910913900.8A CN201910913900A CN110717945B CN 110717945 B CN110717945 B CN 110717945B CN 201910913900 A CN201910913900 A CN 201910913900A CN 110717945 B CN110717945 B CN 110717945B
Authority
CN
China
Prior art keywords
video data
vehicle
camera
paths
automobile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910913900.8A
Other languages
English (en)
Other versions
CN110717945A (zh
Inventor
汪大崴
康栋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei Jiangcheng Technology Co ltd
Original Assignee
Hefei Jiangcheng Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei Jiangcheng Technology Co ltd filed Critical Hefei Jiangcheng Technology Co ltd
Priority to CN201910913900.8A priority Critical patent/CN110717945B/zh
Publication of CN110717945A publication Critical patent/CN110717945A/zh
Application granted granted Critical
Publication of CN110717945B publication Critical patent/CN110717945B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8006Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying scenes of vehicle interior, e.g. for monitoring passengers or cargo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30268Vehicle interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明实施例涉及汽车电子技术领域,公开了一种视觉标定方法,应用于汽车,所述汽车设置有A柱、车内摄像头以及车外摄像头,所述A柱设置有显示屏,所述方法包括:获取所述汽车的车外摄像头拍摄的第一视频数据以及所述汽车的车内摄像头拍摄的第二视频数据;对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系;根据所述映射关系,对所述第一视频数据进行转换,生成第三视频数据;将所述第三视频数据输出到所述A柱的显示屏。通过对车外摄像头拍摄的视频数据进行标定,本发明能够使透明A柱更好地呈现实际场景。

Description

一种视觉标定方法、车机及汽车
技术领域
本发明涉及汽车电子技术领域,特别是涉及一种视觉标定方法、车机及汽车。
背景技术
A柱,英文名是A-pillar,是车辆左前方和右前方连接车顶和前舱的连接柱,在发动机舱和驾驶舱之间,左右后视镜的上方。由于A柱在发动机舱和驾驶舱之间,左右后视镜的上方,会遮挡驾驶者的一部分转弯视界,尤其是左转弯,行驶过程中由A柱对驾驶员视野的遮挡形成的的视野盲区,称为A柱盲区。
由于A柱的截面积过小会导致车身强度不足,太大又会影响驾驶员视野。目前,通过增强现实技术(Augmented Reality,AR)在A柱外部则安装摄像头,在A柱内部安装显示屏,通过将摄像头画面传输到A柱内部,最终实现了A柱部分的透明化,从而既保持了传统A柱的牢固性,又能让驾驶员的视线能清晰地穿透它看清路况。
但是,目前A柱呈现的视频图像真实度不高,由于人眼和摄像头的光学参数不一样,直接显示裁剪拼接后的图像必然跟在没有A柱的情况下人眼看到的图像不一致,导致视觉误差较大。
有鉴于此,现有技术有待改进和提高。
发明内容
本发明实施例旨在提供一种视觉标定方法、车机及汽车,其解决了目前A柱呈现的视频图像真实度不高的技术问题,使A柱更好地呈现实际场景。
为解决上述技术问题,本发明实施例提供以下技术方案:
第一方面,本发明实施例提供一种视觉标定方法,应用于汽车,所述汽车设置有A柱、车内摄像头以及车外摄像头,所述A柱设置有显示屏,所述方法包括:
获取所述汽车的车外摄像头拍摄的第一视频数据以及所述汽车的车内摄像头拍摄的第二视频数据;
对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系;
根据所述映射关系,对所述第一视频数据进行转换,生成第三视频数据;
将所述第三视频数据输出到所述A柱的显示屏,以使所述A柱的显示屏呈现所述第三视频数据。
在一些实施例中,所述车内摄像头和车外摄像头均为双目摄像头,所述获取所述汽车的车外摄像头拍摄的第一视频数据以及所述汽车的车内摄像头拍摄的第二视频数据,包括:
获取所述车外摄像头拍摄的两路车外视频数据,对所述两路车外视频数据进行拼接,生成第一视频数据;
获取所述车内摄像头拍摄的两路车内视频数据,对所述两路车内视频数据进行拼接,生成第二视频数据。
在一些实施例中,所述对所述两路车外视频数据进行拼接,生成第一视频数据,包括:
搜索所述车外摄像头拍摄的两路车外视频数据的相邻区域的共同目标,计算确定两路车外视频数据的几何对应关系;
通过几何变换,将所述两路车外视频数据转换成一个共同的坐标系;
合并所述两路车外视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车外视频数据的第一合并视频数据;
对所述第一合并视频数据进行亮度混合,生成第一视频数据。
在一些实施例中,所述对所述两路车内视频数据进行拼接,生成第二视频数据,包括:
搜索所述车内摄像头拍摄的两路车内视频数据的相邻区域的共同目标,计算确定两路车内视频数据的几何对应关系;
通过几何变换,将所述两路车内视频数据转换成一个共同的坐标系;
合并所述两路车内视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车内视频数据的第二合并视频数据;
对所述第二合并视频数据进行亮度混合,生成第二视频数据。
在一些实施例中,所述将所述第三视频数据输出到所述A柱的显示屏之前,所述方法还包括:根据环境光的强度,对所述第三视频数据进行光线补偿处理,所述将所述第三视频数据输出到所述A柱的显示屏,包括:
将进行光线补偿处理后的第三视频数据输出到所述A柱的显示屏。
在一些实施例中,所述根据环境光的强度,对所述第三视频数据进行光线补偿处理,包括:
预设环境光强度中间值;
判断所述环境光的强度是否大于所述环境光强度中间值;
若是,则降低所述第三视频数据的光强度;
若否,则提高所述第三视频数据的光强度。
在一些实施例中,所述对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系,包括:
计算摄像头内参数矩阵以及摄像头外参数矩阵;
根据所述摄像头内参数矩阵以及摄像头外参数矩阵,计算世界坐标系与图像坐标系的单应性矩阵;
根据所述单应性矩阵,确定世界坐标系到像素坐标系的映射关系。
在一些实施例中,所述根据所述单应性矩阵,确定世界坐标系到像素坐标系的映射关系之后,所述方法还包括:
对所述世界坐标系到像素坐标系的像素点进行最大似然估计,生成所述像素点的最优解。
第二方面,本发明实施例提供一种视觉标定装置,应用于汽车,所述汽车设置有A柱、车内摄像头以及车外摄像头,所述A柱设置有显示屏,所述装置包括:
第一视频数据获取单元,用于获取所述汽车的车外摄像头拍摄的第一视频数据;
第二视频数据获取单元,用于获取所述汽车的车内摄像头拍摄的第二视频数据;
映射关系单元,用于对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系;
第三视频数据生成单元,用于根据所述映射关系,对所述第一视频数据进行转换,生成第三视频数据;
显示屏显示单元,用于将所述第三视频数据输出到所述A柱的显示屏,以使所述A柱的显示屏呈现所述第三视频数据。
在一些实施例中,所述车内摄像头和车外摄像头均为双目摄像头,所述第一视频数据获取单元,包括:
两路车外视频数据获取模块,用于获取所述车外摄像头拍摄的两路车外视频数据;
第一视频数据拼接模块,用于对所述两路车外视频数据进行拼接,生成第一视频数据。
在一些实施例中,所述第二视频数据获取单元,包括:
两路车内视频数据获取模块,用于获取所述车内摄像头拍摄的两路车内视频数据;
第二视频数据拼接模块,用于对所述两路车内视频数据进行拼接,生成第二视频数据。
在一些实施例中,所述第一视频数据拼接模块,具体用于:
搜索所述车内摄像头拍摄的两路车外视频数据的相邻区域的共同目标,计算确定两路车外视频数据的几何对应关系;
通过几何变换,将所述两路车外视频数据转换成一个共同的坐标系;
合并所述两路车外视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车外视频数据的第一合并视频数据;
对所述第一合并视频数据进行亮度混合,生成第一视频数据。
在一些实施例中,所述第二视频数据拼接模块,具体用于:
搜索所述车内摄像头拍摄的两路车内视频数据的相邻区域的共同目标,计算确定两路车内视频数据的几何对应关系;
通过几何变换,将所述两路车内视频数据转换成一个共同的坐标系;
合并所述两路车内视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车内视频数据的第二合并视频数据;
对所述第二合并视频数据进行亮度混合,生成第二视频数据。
在一些实施例中,所述装置还包括:
光线补偿单元,用于根据环境光的强度,对所述第三视频数据进行光线补偿处理,所述显示屏显示单元,具体用于:
将进行光线补偿处理后的第三视频数据输出到所述A柱的显示屏,以使所述A柱的显示屏呈现所述光线补偿处理后的第三视频数据。
在一些实施例中,所述光线补偿单元,具体用于:
预设环境光强度中间值;
判断所述环境光的强度是否大于所述环境光强度中间值;
若是,则降低所述第三视频数据的光强度;
若否,则提高所述第三视频数据的光强度。
在一些实施例中,所述映射关系单元,包括:
内参数矩阵模块,用于计算摄像头内参数矩阵;
外参数矩阵模块,用于计算摄像头外参数矩阵;
单应性矩阵模块,用于根据所述摄像头内参数矩阵以及摄像头外参数矩阵,计算世界坐标系与图像坐标系的单应性矩阵;
映射关系模块,用于根据所述单应性矩阵,确定世界坐标系到像素坐标系的映射关系。
在一些实施例中,所述映射关系单元还包括:
最大似然估计模块,用于对所述世界坐标系到像素坐标系的像素点进行最大似然估计,生成所述像素点的最优解。
第三方面,本发明实施例提供一种车机,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如上所述的视觉标定方法。
第四方面,本发明实施例提供一种汽车,包括:A柱、车外摄像头以及车内摄像头;
其中,所述车外摄像头用于拍摄所述A柱处的车外视频数据,所述车内摄像头用于拍摄所述A柱处的车内视频数据,所述A柱内侧设置有显示屏,用于显示转换后的车外视频数据;
所述汽车还包括:
上述的车机,所述车机用于拼接所述车外摄像头拍摄的两路车外视频数据以及拼接所述车内摄像头拍摄的两路车内视频数据,并将转换后的车外视频数据发送到所述显示屏。
第五方面,本发明实施例还提供了一种非易失性计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使车机能够执行如上所述的视觉标定方法。
本发明实施例的有益效果是:区别于现有技术的情况下,本发明实施例提供的一种视觉标定方法,应用于汽车,所述汽车设置有A柱、车内摄像头以及车外摄像头,所述A柱设置有显示屏,所述方法包括:获取所述汽车的车外摄像头拍摄的第一视频数据以及所述汽车的车内摄像头拍摄的第二视频数据;对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系;根据所述映射关系,对所述第一视频数据进行转换,生成第三视频数据;将所述第三视频数据输出到所述A柱的显示屏,以使所述A柱的显示屏呈现所述第三视频数据。通过对车外摄像头拍摄的视频数据进行标定,本发明能够使A柱更好地呈现实际场景。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是本发明实施例提供的一种汽车的硬件架构示意图;
图2是本发明实施例提供的一种汽车的摄像头的示意图;
图3是本发明实施例提供的一种视觉标定方法的流程示意图;
图4是本发明实施例提供的一种视觉标定方法的整体流程图;
图5是本发明实施例提供的一种视觉标定装置的结构示意图;
图6是本发明实施例提供的一种车机的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
目前,随着增强现实技术(Augmented Reality,AR)的发展,汽车的A柱也随之产生,而A柱的目的是为了是驾驶员能够更好地对车外的驾驶环境进行了解,而现有的A柱的显示图像的视觉误差往往较大,导致驾驶员在A柱处看到的驾驶环境与真实环境存在一定的差异,容易影响驾驶员的判断。
基于此,本发明提供一种视觉标定方法,解决目前A柱呈现的视频图像真实度不高的技术问题,使A柱更好地呈现实际场景。
请参阅图1,图1是本发明实施例提供的一种汽车的硬件架构示意图;
如图1所示,该汽车100包括:车机10、车外摄像头20、车内摄像头30以及显示屏40,
其中,所述车机10为电子设备,所述车机10分别与所述车外摄像头20、车内摄像头30以及显示屏40通信连接,例如:车机10与所述所述车外摄像头20、车内摄像头30以及显示屏40通过线缆或无线连接,例如:通过2G、3G、4G、5G、局域网、蓝牙等方式进行通信连接,所述车机用于拼接所述车外摄像头20拍摄的两路车外视频数据或拼接所述车内摄像头20拍摄的两路车内视频数据,在本发明实施例中,所述车机10包括但不限于:
(1)移动通信设备:这类设备的特点是具备移动通信功能,并且以提供话音、数据通信为主要目标。这类电子设备包括:智能手机(例如iPhone)、多媒体手机、功能性手机,以及低端手机等。
(2)移动个人计算机设备:这类设备属于个人计算机的范畴,有计算和处理功能,一般也具备移动上网特性。这类电子设备包括:PDA、MID和UMPC设备等,例如iPad。
(3)便携式娱乐设备:这类设备可以显示和播放视频内容,一般也具备移动上网特性。该类设备包括:视频播放器,掌上游戏机,以及智能玩具和便携式车载导航设备。
(4)其他具有视频播放功能和上网功能的电子设备。
其中,所述车外摄像头20以及车内摄像头30均为双目摄像头,请再参阅图2,图2是本发明实施例提供的一种汽车的摄像头的示意图;
如图2所示,车外摄像头20安装在A柱外部,车内摄像头30安装在A柱内部,其中,A柱内部安装有显示屏,在本发明实施例中,所述显示屏为柔性显示屏,通过将车外摄像头20获取的画面传输到A柱内部的柔性显示屏,从而实现A柱部分的透明化。
请再参阅图3,图3是本发明实施例提供的一种视觉标定方法的流程示意图;
如图3所示,该视觉标定方法,应用于汽车,所述汽车设置有A柱、车内摄像头以及车外摄像头,所述A柱设置有显示屏,所述方法包括:
步骤S10:获取所述汽车的车外摄像头拍摄的第一视频数据以及所述汽车的车内摄像头拍摄的第二视频数据;
具体的,所述车内摄像头和车外摄像头均为双目摄像头,所述获取所述汽车的车外摄像头拍摄的第一视频数据以及所述汽车的车内摄像头拍摄的第二视频数据,包括:
获取所述车外摄像头拍摄的两路车外视频数据,对所述两路车外视频数据进行拼接,生成第一视频数据;
获取所述车内摄像头拍摄的两路车内视频数据,对所述两路车内视频数据进行拼接,生成第二视频数据。
其中,所述对所述两路车外视频数据进行拼接,生成第一视频数据,包括:
搜索所述车外摄像头拍摄的两路车外视频数据的相邻区域的共同目标,计算确定两路车外视频数据的几何对应关系;
具体的,所述车外摄像头为双目摄像头,通过搜索双目摄像头拍摄的两路车外视频数据相邻区域的共同目标,计算确定所述两路车外视频数据的几何对应关系,从而实现两路车外视频数据的视频匹配。
通过几何变换,将所述两路车外视频数据转换成一个共同的坐标系;
具体的,通过几何变换,将所述两路车外视频数据转换成一个共同的坐标系,从而实现两路车外视频数据的重投影。
合并所述两路车外视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车外视频数据的第一合并视频数据;
具体的,通过合并所述两路车外视频数据的重叠部分的像素,并保持没有重叠的像素,从而生成分辨率大于所述两路车外视频数据的每一路车外视频数据的第一合并视频数据,实现视频缝合。
对所述第一合并视频数据进行亮度混合,生成第一视频数据。
具体的,由于在对两路车外视频数据进行合并的过程中,几何变换产生的误差和两路车外视频数据的光照强度不一致的原因,容易导致合并后的第一合并视频数据的视频连接处的目标不连续,并在两路车外视频数据之间的边界附近产生可见的接缝,因此,为了减少接缝的出现,需要在合并之后,对所述第一合并视频数据进行亮度混合。具体的,所述对所述第一合并视频数据进行亮度混合,包括:
通过视频混合算法,在所述两路车外视频数据的结合处,对所述结合处的左右两边视频的亮度取平均值,对所述第一合并视频数据进行亮度混合。
同理,所述对所述两路车内视频数据进行拼接,生成第二视频数据,包括:
搜索所述车内摄像头拍摄的两路车内视频数据的相邻区域的共同目标,计算确定两路车内视频数据的几何对应关系;
通过几何变换,将所述两路车内视频数据转换成一个共同的坐标系;
合并所述两路车内视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车内视频数据的第二合并视频数据;
对所述第二合并视频数据进行亮度混合,生成第二视频数据。
由于对两路车内视频数据的拼接与对两路车外视频数据的拼接过程原理相同,在此不再赘述。
步骤S20:对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系;
具体的,所述对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系,包括:
计算摄像头内参数矩阵以及摄像头外参数矩阵;
由于摄像机标定一般都需要一个放在摄像机前的特制的标定参照物,摄像机通过获取该标定参照物的图像,并由此计算所述摄像机的内外参数,其中,所述标定参照物可以为棋盘格,所述棋盘格上的每一个特征点相对于世界坐标系的位置在制作时已被精确测定,在得到棋盘格的特征点在A柱的图像上的投影位置后,可以计算所述摄像头的内外参数,即确定所述摄像头内参数矩阵和摄像头外参数矩阵。
根据所述摄像头内参数矩阵以及摄像头外参数矩阵,计算世界坐标系与图像坐标系的单应性矩阵;
其中,单应(Homography)是射影几何中的概念,又称为射影变换。它把一个射影平面上的点(三维齐次矢量)映射到另一个射影平面上,并且把直线映射为直线,具有保线性质。总的来说,单应是关于三维齐次矢量的一种线性变换,可以用一个3×3的非奇异矩阵H表示。
假设世界坐标系的点为X=[X,Y,Z,1]T,摄像机的平面像素坐标为m=[u,v,1]T,因此,标定用的棋盘格平面到摄像机的图像平面的单应性关系为:
内参数矩阵*旋转平移矩阵*三维坐标系的点的坐标=尺度因子*棋盘格平面的像素坐标;即,K*R*X=s*m,其中,s为尺度因子,K为摄像头内参数矩阵,R为旋转平移矩阵,即摄像头外参数矩阵,令
Figure BDA0002215514250000111
则尺度因子s对于齐次坐标来说,不会改变齐次坐标值,本发明通过张氏标定法,将世界坐标系映射到棋盘格平面上,令棋盘格平面为Z=0的平面,则可以得出:
Figure BDA0002215514250000112
将K[r1,r2,t]作为单应性矩阵H,其中,r1、r2、r3分别为X轴,Y轴以及Z轴的旋转角度,t为平移向量,则可以得到:
Figure BDA0002215514250000113
H=[h1 h2 h3]=λK[r1 r2 t],
由于单应性矩阵H是一个齐次矩阵,所以有8个未知数,至少需要8个方程,每对对应点能提供两个方程,所以至少需要四个对应点,通过四个对应点即可以计算出世界坐标系到图像坐标系的单应性矩阵H。
根据所述单应性矩阵H,即可确定世界坐标系到像素坐标系的映射关系,从而确定所述第一视频数据和第二视频数据的映射关系。
步骤S30:根据所述映射关系,对所述第一视频数据进行转换,生成第三视频数据;
具体的,根据所述单应性矩阵,对所述第一视频数据进行转换,具体的,将所述第一视频数据的每一图像点的坐标乘以所述单应性矩阵,即可得到所述第一视频数据对应的第三视频数据的每一图像点,进而得出所述第三视频数据。
在本发明实施例中,在根据所述单应性矩阵,确定世界坐标系到像素坐标系的映射关系之后,所述方法还包括:
对所述世界坐标系到像素坐标系的像素点进行最大似然估计,生成所述像素点的最优解。
具体的,为了进一步增加标定结果的可靠性,需要通过最大似然估计(Maximumlikelihood estimation)来优化标定得到的结果。
具体的,假设同一相机从n个不同的角度的得到了n幅标定参照物的图像,每幅图像上有m个像点。Mij表示第i幅图像上第j个像点对应的标定参照物上的三维点,其中,所述标定参照物可以为标定板,例如:棋盘格,则
Figure BDA0002215514250000121
其中,
Figure BDA0002215514250000122
表示Mij的像点。其中Ri,ti表示第i幅图像对应相机的旋转矩阵和平移向量,K是相机的内参数矩阵。则像点Mij的概率密度函数是
Figure BDA0002215514250000123
此时,通过构造似然函数
Figure BDA0002215514250000124
为了让似然函数L取得最大值,需要最小化如下的值:
Figure BDA0002215514250000131
具体的,通过莱文贝格-马夸特方法(Levenberg–Marquardt algorithm),计算获取所述最小值,从而得到似然函数L的最大值。
步骤S40:将所述第三视频数据输出到所述A柱的显示屏,以使所述A柱的显示屏呈现所述第三视频数据。
具体的,通过将所述第三视频数据输出到所述汽车的A柱的显示屏,其中,所述显示屏为柔性显示屏,通过所述A柱的柔性显示屏呈现所述的第三视频数据,从而透明化A柱,使A柱更好地呈现实际场景。
在本发明实施例中,所述将所述第三视频数据输出到所述A柱的显示屏之前,所述方法还包括:根据环境光的强度,对所述第三视频数据进行光线补偿处理,所述将所述第三视频数据输出到所述A柱的显示屏,包括:
将进行光线补偿处理后的第三视频数据输出到所述A柱的显示屏,以使所述A柱的显示屏呈现所述光线补偿处理后的第三视频数据。
其中,车外摄像头在视频采集过程中受诸多因素影响,如夜间或者暗光拍摄条件下表现为光照不足、亮度偏低;光线遮挡使得形成的图像一部分明亮另一部分较暗,造成光照不均;反光或强光源使得获取的图像亮度分布不均勾,高亮区域细节模糊。光照不足或者光照不均一方面会造成图像主观效果不佳,难以满足人们视觉感官的需要,另一方面对于后续的视频处理都会造成较大影响。具体的,所述光线补偿处理,包括:通过光照补偿算法,根据环境光的强度,对所述第三视频数据进行光线补偿处理,其中,所述根据环境光的强度,对所述第三视频数据进行光线补偿处理,包括:
预设环境光强度中间值;
判断所述环境光的强度是否大于所述环境光强度中间值;
若是,则降低所述第三视频数据的光强度;
若否,则提高所述第三视频数据的光强度。
通过预设环境光强度中间值,判断所述环境光的强度与所述环境光强度中间值的大小关系,若所述环境光的强度大于所述环境光强度中间值,则降低所述第三视频数据的光强度,从而将所述第三视频数据的光强度调整到所述环境光强度中间值,若所述环境光的强度小于所述环境光强度中间值,则提高所述第三视频数据的光强度,从而将所述第三视频数据的光强度调整到所述环境光强度中间值。
通过采用光照补偿算法对待输出的第三视频数据进行处理,使得不管车外光照强度如何变化,最后都能得到比较适合驾驶者观看的视频。
请再参阅图4,图4是本发明实施例提供的一种视觉标定方法的整体流程图;
如图4所示,该视频标定方法,包括:
车外摄像头视频输入以及车内摄像头视频输入;
具体的,通过设置在汽车的A柱外部的车外摄像头获取两路车外视频数据,通过设置在汽车的内部的车内摄像头获取两路车内视频数据;
分别进行车外摄像头视频拼接和车内摄像头视频拼接;
具体的,分别对所述车外摄像头获取两路车外视频数据以及所述车内摄像头获取两路车内视频数据进行拼接,分别生成第一视频数据和第二视频数据。
车外和车内摄像头拍摄的拼接后的视频的标定;
具体的,根据所述第一视频数据以及第二视频数据,对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系。
根据标定得到的映射关系计算输出的视频的大小和位置;
具体的,根据所述映射关系,对所述第一视频数据进行转换,生成第三视频数据。
根据环境光的强度对输出视频做光线补偿等后处理;
具体的,根据所述环境光的强度,对所述第三视频数据进行光线补偿处理,包括:预设环境光强度中间值;判断所述环境光的强度是否大于所述环境光强度中间值;若是,则降低所述第三视频数据的光强度;若否,则提高所述第三视频数据的光强度。
在本发明实施例中,通过提供一种视觉标定方法,应用于汽车,所述汽车设置有A柱、车内摄像头以及车外摄像头,所述A柱设置有显示屏,所述方法包括:获取所述汽车的车外摄像头拍摄的第一视频数据以及所述汽车的车内摄像头拍摄的第二视频数据;对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系;根据所述映射关系,对所述第一视频数据进行转换,生成第三视频数据;将所述第三视频数据输出到所述A柱的显示屏。通过对车外摄像头拍摄的视频数据进行标定,本发明能够使透明A柱更好地呈现实际场景。
请再参阅图5,图5为本发明实施例提供的一种视觉标定装置的结构示意图,该视觉标定装置可以应用于汽车,所述汽车设置有A柱、车内摄像头以及车外摄像头,所述A柱设置有显示屏,所述显示屏为柔性显示屏。
如图5所示,该视觉标定装置50包括:
第一视频数据获取单元51,用于获取所述汽车的车外摄像头拍摄的第一视频数据;
第二视频数据获取单元52,用于获取所述汽车的车内摄像头拍摄的第二视频数据;
映射关系单元53,用于对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系;
第三视频数据生成单元54,用于根据所述映射关系,对所述第一视频数据进行转换,生成第三视频数据;
显示屏显示单元55,用于将所述第三视频数据输出到所述A柱的显示屏,以使所述A柱的显示屏呈现所述第三视频数据。
在本发明实施例中,所述车内摄像头和车外摄像头均为双目摄像头,所述第一视频数据获取单元,包括:
两路车外视频数据获取模块,用于获取所述车外摄像头拍摄的两路车外视频数据;
第一视频数据拼接模块,用于对所述两路车外视频数据进行拼接,生成第一视频数据。
在本发明实施例中,所述第二视频数据获取单元,包括:
两路车内视频数据获取模块,用于获取所述车内摄像头拍摄的两路车内视频数据;
第二视频数据拼接模块,用于对所述两路车内视频数据进行拼接,生成第二视频数据。
在本发明实施例中,所述第一视频数据拼接模块,具体用于:
搜索所述车内摄像头拍摄的两路车外视频数据的相邻区域的共同目标,计算确定两路车外视频数据的几何对应关系;
通过几何变换,将所述两路车外视频数据转换成一个共同的坐标系;
合并所述两路车外视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车外视频数据的第一合并视频数据;
对所述第一合并视频数据进行亮度混合,生成第一视频数据。
在一些实施例中,所述第二视频数据拼接模块,具体用于:
搜索所述车内摄像头拍摄的两路车内视频数据的相邻区域的共同目标,计算确定两路车内视频数据的几何对应关系;
通过几何变换,将所述两路车内视频数据转换成一个共同的坐标系;
合并所述两路车内视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车内视频数据的第二合并视频数据;
对所述第二合并视频数据进行亮度混合,生成第二视频数据。
在本发明实施例中,所述装置还包括:
光线补偿单元,用于根据环境光的强度,对所述第三视频数据进行光线补偿处理,所述显示屏显示单元,具体用于:
将进行光线补偿处理后的第三视频数据输出到所述A柱的显示屏,以使所述A柱的显示屏呈现所述光线补偿处理后的第三视频数据。
在本发明实施例中,所述光线补偿单元,具体用于:
预设环境光强度中间值;
判断所述环境光的强度是否大于所述环境光强度中间值;
若是,则降低所述第三视频数据的光强度;
若否,则提高所述第三视频数据的光强度。
在本发明实施例中,所述映射关系单元,包括:
内参数矩阵模块,用于计算摄像头内参数矩阵;
外参数矩阵模块,用于计算摄像头外参数矩阵;
单应性矩阵模块,用于根据所述摄像头内参数矩阵以及摄像头外参数矩阵,计算世界坐标系与图像坐标系的单应性矩阵;
映射关系模块,用于根据所述单应性矩阵,确定世界坐标系到像素坐标系的映射关系。
在本发明实施例中,所述映射关系单元还包括:
最大似然估计模块,用于对所述世界坐标系到像素坐标系的像素点进行最大似然估计,生成所述像素点的最优解。
由于装置实施例和方法实施例是基于同一构思,在内容不互相冲突的前提下,装置实施例的内容可以引用方法实施例的,在此不赘述。
在本发明实施例中,通过提供一种视觉标定装置,应用于汽车,所述汽车设置有A柱、车内摄像头以及车外摄像头,所述A柱设置有显示屏,所述装置包括:第一视频数据获取单元,用于获取所述汽车的车外摄像头拍摄的第一视频数据;第二视频数据获取单元,用于获取所述汽车的车内摄像头拍摄的第二视频数据;映射关系单元,用于对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系;第三视频数据生成单元,用于根据所述映射关系,对所述第一视频数据进行转换,生成第三视频数据;显示屏显示单元,用于将所述第三视频数据输出到所述A柱的显示屏,以使所述A柱的显示屏呈现所述第三视频数据。通过对车外摄像头拍摄的视频数据进行标定,本发明能够使A柱更好地呈现实际场景。
请参阅图6,图6是本发明实施例提供的一种车机的结构示意图。
其中,该车机可以是电子设备,例如:移动终端。
如图6所示,该车机60包括一个或多个处理器61以及存储器62。其中,图6中以一个处理器61为例。
处理器61和存储器62可以通过总线或者其他方式连接,图6中以通过总线连接为例。
存储器62作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本发明实施例中的一种视觉标定方法对应的单元(例如,图5所述的各个单元)。处理器61通过运行存储在存储器62中的非易失性软件程序、指令以及模块,从而执行视觉标定方法的各种功能应用以及数据处理,即实现上述方法实施例视觉标定方法以及上述装置实施例的各个模块和单元的功能。
存储器62可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器62可选包括相对于处理器61远程设置的存储器,这些远程存储器可以通过网络连接至处理器61。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述模块存储在所述存储器62中,当被所述一个或者多个处理器61执行时,执行上述任意方法实施例中的视觉标定方法,例如,执行以上描述的图3所示的各个步骤;也可实现图5所述的各个模块或单元的功能。
本发明实施例还提供了一种非易失性计算机存储介质,所述计算机存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行,例如图6中的一个处理器61,可使得上述一个或多个处理器可执行上述任意方法实施例中的视觉标定方法,例如,执行上述任意方法实施例中的视觉标定方法,例如,执行以上描述的图3所示的各个步骤;也可实现图5所述的各个单元的功能。
以上所描述的装置或设备实施例仅仅是示意性的,其中所述作为分离部件说明的单元模块可以是或者也可以不是物理上分开的,作为模块单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络模块单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对相关技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用直至得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (8)

1.一种视觉标定方法,其特征在于,应用于汽车,所述汽车设置有A柱、车内摄像头以及车外摄像头,所述A柱设置有显示屏,所述方法包括:
获取所述汽车的车外摄像头拍摄的第一视频数据以及所述汽车的车内摄像头拍摄的第二视频数据;
对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系;
根据所述映射关系,对所述第一视频数据进行转换,生成第三视频数据;
根据环境光的强度,对所述第三视频数据进行光线补偿处理;
将所述第三视频数据输出到所述A柱的显示屏,以使所述A柱的显示屏呈现所述第三视频数据;
所述获取所述汽车的车外摄像头拍摄的第一视频数据,包括:
获取所述车外摄像头拍摄的两路车外视频数据,对所述两路车外视频数据进行拼接,生成第一视频数据;
所述对所述两路车外视频数据进行拼接,生成第一视频数据,包括:
搜索所述车外摄像头拍摄的两路车外视频数据的相邻区域的共同目标,计算确定两路车外视频数据的几何对应关系;
通过几何变换,将所述两路车外视频数据转换成一个共同的坐标系;
合并所述两路车外视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车外视频数据的第一合并视频数据;
所述根据环境光的强度,对所述第三视频数据进行光线补偿处理,包括:
预设环境光强度中间值;
判断所述环境光的强度是否大于所述环境光强度中间值;
若是,则降低所述第三视频数据的光强度;
若否,则提高所述第三视频数据的光强度;
所述将所述第三视频数据输出到所述A柱的显示屏,包括:
将进行光线补偿处理后的第三视频数据输出到所述A柱的显示屏,以使所述A柱的显示屏呈现所述光线补偿处理后的第三视频数据。
2.根据权利要求1所述的方法,其特征在于,所述车内摄像头和车外摄像头均为双目摄像头,所述获取所述汽车的车内摄像头拍摄的第二视频数据,包括:
获取所述车内摄像头拍摄的两路车内视频数据,对所述两路车内视频数据进行拼接,生成第二视频数据。
3.根据权利要求1所述的方法,其特征在于,所述对所述两路车外视频数据进行拼接,生成第一视频数据,还包括:
对所述第一合并视频数据进行亮度混合,生成第一视频数据。
4.根据权利要求2所述的方法,其特征在于,所述对所述两路车内视频数据进行拼接,生成第二视频数据,包括:
搜索所述车内摄像头拍摄的两路车内视频数据的相邻区域的共同目标,计算确定两路车内视频数据的几何对应关系;
通过几何变换,将所述两路车内视频数据转换成一个共同的坐标系;
合并所述两路车内视频数据的重叠部分的像素并保持没有重叠的像素,以生成分辨率大于每一路车内视频数据的第二合并视频数据;
对所述第二合并视频数据进行亮度混合,生成第二视频数据。
5.根据权利要求1所述的方法,其特征在于,所述对所述第一视频数据和第二视频数据进行标定,获取所述第一视频数据和第二视频数据的映射关系,包括:
计算摄像头内参数矩阵以及摄像头外参数矩阵;
根据所述摄像头内参数矩阵以及摄像头外参数矩阵,计算世界坐标系与图像坐标系的单应性矩阵;
根据所述单应性矩阵,确定世界坐标系到像素坐标系的映射关系。
6.根据权利要求1所述的方法,其特征在于,根据单应性矩阵,确定世界坐标系到像素坐标系的映射关系之后,所述方法还包括:
对所述世界坐标系到像素坐标系的像素点进行最大似然估计,生成所述像素点的最优解。
7.一种车机,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6任一项所述的方法。
8.一种汽车,其特征在于,包括:A柱、车外摄像头以及车内摄像头;
其中,所述车外摄像头用于拍摄所述A柱处的车外视频数据,所述车内摄像头用于拍摄所述A柱处的车内视频数据,所述A柱内侧设置有显示屏,用于显示转换后的车外视频数据;
所述汽车还包括:
如权利要求7所述的车机,所述车机用于拼接所述车外摄像头拍摄的两路车外视频数据以及拼接所述车内摄像头拍摄的两路车内视频数据,并将转换后的车外视频数据发送到所述显示屏。
CN201910913900.8A 2019-09-25 2019-09-25 一种视觉标定方法、车机及汽车 Active CN110717945B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910913900.8A CN110717945B (zh) 2019-09-25 2019-09-25 一种视觉标定方法、车机及汽车

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910913900.8A CN110717945B (zh) 2019-09-25 2019-09-25 一种视觉标定方法、车机及汽车

Publications (2)

Publication Number Publication Date
CN110717945A CN110717945A (zh) 2020-01-21
CN110717945B true CN110717945B (zh) 2022-09-02

Family

ID=69210906

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910913900.8A Active CN110717945B (zh) 2019-09-25 2019-09-25 一种视觉标定方法、车机及汽车

Country Status (1)

Country Link
CN (1) CN110717945B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111391755B (zh) * 2020-03-10 2021-10-12 京东方科技集团股份有限公司 盲区图像的显示方法、装置及系统
CN112738469A (zh) * 2020-12-25 2021-04-30 浙江合众新能源汽车有限公司 图像处理方法、设备、系统和计算机可读介质
CN113077503B (zh) * 2021-03-24 2023-02-07 浙江合众新能源汽车有限公司 盲区视频数据生成方法、系统、设备和计算机可读介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109941277A (zh) * 2019-04-08 2019-06-28 宝能汽车有限公司 显示汽车a柱盲区图像的方法、装置和车辆
CN110059574A (zh) * 2019-03-23 2019-07-26 浙江交通职业技术学院 一种车辆盲区检测方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110059574A (zh) * 2019-03-23 2019-07-26 浙江交通职业技术学院 一种车辆盲区检测方法
CN109941277A (zh) * 2019-04-08 2019-06-28 宝能汽车有限公司 显示汽车a柱盲区图像的方法、装置和车辆

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于双目摄像头的图像拼接与设备实现;伍圣寅等;《Proceedings of 2011 Third Chinese Conference on Intelligent Visual Surveillance》;20111201;第85-88页 *
飞行时间深度相机和彩色相机的联合标定;周杰等;《信号处理》;20170131;第33卷(第01期);第69-76页 *

Also Published As

Publication number Publication date
CN110717945A (zh) 2020-01-21

Similar Documents

Publication Publication Date Title
CN110728638A (zh) 一种图像的畸变矫正方法、车机及汽车
CN110717945B (zh) 一种视觉标定方法、车机及汽车
CA2957047C (en) Active window for vehicle infomatics and virtual reality
US20190349571A1 (en) Distortion correction for vehicle surround view camera projections
US8063752B2 (en) Camera unit with driving corridor display functionality for a vehicle, method for displaying anticipated trajectory of a vehicle, and system for generating driving corridor markers
CN112224132A (zh) 一种车用全景环视障碍物预警方法
CN102291541A (zh) 一种车辆虚拟合成显示系统
CN110139084A (zh) 车辆周围影像处理方法及装置
CN111086453A (zh) 一种基于摄像头的hud增强现实显示方法、装置及汽车
CN112070886B (zh) 矿用自卸车的影像监控方法及相关设备
CN210234807U (zh) 一种拖挂车360°环视系统
CN112215747A (zh) 无车底盲区的车载全景图的生成方法、装置及存储介质
CN107364393A (zh) 车辆后视图像的显示方法、装置、存储介质及电子设备
CN112422830B (zh) 获取车辆全景图像的方法及装置和计算机存储介质
CN112348741A (zh) 全景图像拼接方法、设备及存储介质和显示方法及系统
CN110400255B (zh) 车辆全景影像的生成方法、系统和车辆
US20170024851A1 (en) Panel transform
CN113492829B (zh) 数据处理的方法和装置
TW201605247A (zh) 影像處理系統及方法
CN105774657B (zh) 一种单摄像头全景倒车影像系统
JP2012138876A (ja) 画像生成装置、画像表示システム及び画像表示方法
CN210139817U (zh) 汽车增强现实显示系统及汽车
CN116205829A (zh) 后视镜图像融合方法、装置、车载设备以及存储介质
CN112435161A (zh) 全景环视图像拼接方法及系统、电子设备和存储介质
CN116894773A (zh) 图像处理方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 230000 a10-01, 13 / F, block a, building J1, phase II, innovation industrial park, No. 2800, innovation Avenue, high tech Zone, Hefei, Anhui Province

Applicant after: Hefei Jiangcheng Technology Co.,Ltd.

Address before: 518000 Room 202, Jinke office building, No. 8, Qiongyu Road, Science Park community, Yuehai street, Nanshan District, Shenzhen, Guangdong Province

Applicant before: SHENZHEN JIANG CHENG TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant