CN109801339A - 图像处理方法、装置和存储介质 - Google Patents
图像处理方法、装置和存储介质 Download PDFInfo
- Publication number
- CN109801339A CN109801339A CN201811643204.1A CN201811643204A CN109801339A CN 109801339 A CN109801339 A CN 109801339A CN 201811643204 A CN201811643204 A CN 201811643204A CN 109801339 A CN109801339 A CN 109801339A
- Authority
- CN
- China
- Prior art keywords
- image
- dimensional coordinate
- coordinate
- filming apparatus
- driving vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明提供一种图像处理方法、装置和存储介质,该方法包括:根据每个同一特征点在至少两个拍摄装置拍摄的每个图像中的图像坐标、每个拍摄装置的装置参数和每个拍摄装置在拍摄对应的图像时的三维坐标,获取每个图像中的每个同一特征点的三维坐标,同一特征点用于表征实际环境中的同一位置;根据每个图像中的每个同一特征点的三维坐标,以及,每个拍摄装置在拍摄对应的图像时的三维坐标,获取无人驾驶车辆的三维坐标;根据无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,获取无人驾驶车辆在每个图像中的图像坐标。本发明在二维图像中获取、记录车辆所在的位置,避免了现有技术中即在大量的三维数据造成的加载数据量大的问题。
Description
技术领域
本发明涉及智能驾驶技术领域,尤其涉及一种图像处理方法、装置和存储介质。
背景技术
无人驾驶车辆一般是利用车载传感器来感知车辆周围环境,并根据感知所获得的道路、车辆位置和障碍物信息,控制车辆的转向和速度,从而使车辆能够安全、可靠地在道路上行驶。具体的,在无人驾驶车辆中预设的行驶线路,根据该行驶线路实现无人驾驶。
现有技术中,通常根据采集车辆预先获取的三维点云数据,预先构建三维点云地图,在无人驾驶车辆实际行驶过程中根据获取的当前三维点云数据,与三维点云地图中的三维点云数据进行匹配,获取无人驾驶车辆当前的位置,根据预设的行驶线路进行行驶。
但现有技术中的三维点云地图中包括大量的三维点云数据,在获取无人驾驶车辆的位置时,需要加载三维点云地图,且与三维点云地图中的三维点云数据进行匹配,加载数据量大,所需要的存储空间也大。
发明内容
本发明提供一种图像处理方法、装置和存储介质,在二维图像中获取、记录车辆所在的位置,避免了现有技术中即在大量的三维数据造成的加载数据量大的问题。
本发明的第一方面提供一种图像处理方法,无人驾驶车辆上设置有至少两个拍摄装置,所述方法包括:
根据每个同一特征点在至少所述两个拍摄装置拍摄的每个图像中的图像坐标、每个所述拍摄装置的装置参数和每个所述拍摄装置在拍摄对应的图像时的三维坐标,获取每个所述图像中的每个所述同一特征点的三维坐标,所述同一特征点用于表征实际环境中的同一位置;
根据每个所述图像中的每个所述同一特征点的三维坐标,以及,每个所述拍摄装置在拍摄对应的图像时的三维坐标,获取所述无人驾驶车辆的三维坐标;
根据所述无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,获取所述无人驾驶车辆在每个所述图像中的图像坐标。
可选的,所述获取每个所述图像中的每个所述同一特征点的三维坐标之前,包括:
获取至少两个所述拍摄装置拍摄的多组图像,一组所述图像包括至少两个所述拍摄装置同一时刻拍摄的图像;
根据多个所述同一特征点在每组所述图像中的图像坐标,以及,多个所述同一特征点在每个所述拍摄装置拍摄的多个图像中的图像坐标,获取每个所述拍摄装置的装置参数。
可选的,所述获取所述无人驾驶车辆的三维坐标之前,还包括:
根据每个所述图像中的每个所述同一特征点的三维坐标,获取每个所述图像对应的实际环境的三维模型,所述三维模型包括每个所述同一特征点的三维坐标;
所述获取所述无人驾驶车辆的三维坐标,包括:
根据每个所述拍摄装置在拍摄对应的图像时的三维坐标和所述三维模型,获取所述无人驾驶车辆的三维坐标。
可选的,所述获取每个所述图像中的每个所述同一特征点的三维坐标,包括:
根据每个所述同一特征点在每个所述图像中的图像坐标、每个所述拍摄装置的参数和每个所述拍摄装置在拍摄对应的图像时的三维坐标,获取每个所述拍摄装置拍摄对应的图像时的拍摄视线,所述拍摄视线为:每个所述拍摄装置与对应的每个所述同一特征点组成的连线;
获取每组所述图像对应的拍摄视线的交点,所述交点为每个所述同一特征点的三维坐标。
可选的,所述根据每个所述拍摄装置在拍摄对应的图像时的三维坐标和所述三维模型,获取所述无人驾驶车辆的三维坐标,包括:
根据路平面的法线方向与重力方向平行,在所述三维模型中获取所述路平面所在的位置;
根据每个所述拍摄装置在拍摄对应的图像时的三维坐标和所述路平面所在的位置,获取所述无人驾驶车辆的三维坐标。
可选的,所述在所述三维模型中获取所述路平面所在的位置之前,还包括:
获取所述三维模型的垂直方向,将所述三维模型旋转至所述垂直方向与所述重力方向平行,所述路平面的法线方向与旋转后的所述三维模型的垂直方向平行。
可选的,所述装置参数中包括:畸变参数;
所述获取所述无人驾驶车辆在每个所述图像中的图像坐标,包括:
根据所述无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,获取所述无人驾驶车辆在每个所述图像中的待修正图像坐标;
根据所述畸变参数对所述待修正图像坐标进行修正,获取所述无人驾驶车辆在每个所述图像中的图像坐标。
本发明的第二方面提供一种图像处理装置,包括:
同一特征点的三维坐标获取模块,用于根据每个同一特征点在至少所述两个拍摄装置拍摄的每个图像中的图像坐标、每个所述拍摄装置的装置参数和每个所述拍摄装置在拍摄对应的图像时的三维坐标,获取每个所述图像中的每个所述同一特征点的三维坐标,所述同一特征点用于表征实际环境中的同一位置;
无人驾驶车辆的三维坐标获取模块,用于根据每个所述图像中的每个所述同一特征点的三维坐标,以及,每个所述拍摄装置在拍摄对应的图像时的三维坐标,获取所述无人驾驶车辆的三维坐标;
图像坐标获取模块,用于根据所述无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,获取所述无人驾驶车辆在每个所述图像中的图像坐标。
可选的,所述装置还包括:装置参数获取模块;
所述装置参数获取模块,用于获取至少两个所述拍摄装置拍摄的多组图像,一组所述图像包括至少两个所述拍摄装置同一时刻拍摄的图像;根据多个所述同一特征点在每组所述图像中的图像坐标,以及,多个所述同一特征点在每个所述拍摄装置拍摄的多个图像中的图像坐标,获取每个所述拍摄装置的装置参数。
可选的,所述装置还包括:三维模型获取模块;
所述三维模型获取模块,用于根据每个所述图像中的每个所述同一特征点的三维坐标,获取每个所述图像对应的实际环境的三维模型,所述三维模型包括每个所述同一特征点的三维坐标;
可选的,所述无人驾驶车辆的三维坐标获取模块,具体用于根据每个所述拍摄装置在拍摄对应的图像时的三维坐标和所述三维模型,获取所述无人驾驶车辆的三维坐标。
可选的,所述同一特征点的三维坐标获取模块,具体用于根据每个所述同一特征点在每个所述图像中的图像坐标、每个所述拍摄装置的参数和每个所述拍摄装置在拍摄对应的图像时的三维坐标,获取每个所述拍摄装置拍摄对应的图像时的拍摄视线,所述拍摄视线为:每个所述拍摄装置与对应的每个所述同一特征点组成的连线;获取每组所述图像对应的拍摄视线的交点,所述交点为每个所述同一特征点的三维坐标。
可选的,所述无人驾驶车辆的三维坐标获取模块,具体用于根据路平面的法线方向与重力方向平行,在所述三维模型中获取所述路平面所在的位置;根据每个所述拍摄装置在拍摄对应的图像时的三维坐标和所述路平面所在的位置,获取所述无人驾驶车辆的三维坐标。
可选的,所述装置还包括:旋转模块;
所述旋转模块,用于获取所述三维模型的垂直方向,将所述三维模型旋转至所述垂直方向与所述重力方向平行,所述路平面的法线方向与旋转后的所述三维模型的垂直方向平行。
可选的,所述装置参数中包括:畸变参数。
图像坐标获取模块,具体用于根据所述无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,获取所述无人驾驶车辆在每个所述图像中的待修正图像坐标;根据所述畸变参数对所述待修正图像坐标进行修正,获取所述无人驾驶车辆在每个所述图像中的图像坐标。
本发明的第三方面提供一种图像处理装置,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述图像处理装置执行上述图像处理方法。
本发明的第四方面提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机执行指令,当所述计算机执行指令被处理器执行时,实现上述图像处理方法。
本发明提供一种图像处理方法、装置和存储介质,该方法包括:根据每个同一特征点在至少两个拍摄装置拍摄的每个图像中的图像坐标、每个拍摄装置的装置参数和每个拍摄装置在拍摄对应的图像时的三维坐标,获取每个图像中的每个同一特征点的三维坐标,同一特征点用于表征实际环境中的同一位置;根据每个图像中的每个同一特征点的三维坐标,以及,每个拍摄装置在拍摄对应的图像时的三维坐标,获取无人驾驶车辆的三维坐标;根据无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,获取无人驾驶车辆在每个图像中的图像坐标。本发明在二维图像中获取、记录车辆所在的位置,避免了现有技术中即在大量的三维数据造成的加载数据量大的问题。
附图说明
图1为本发明提供的无人驾驶车辆上设置拍摄装置的示意图;
图2为本发明提供的图像处理方法的流程示意图一;
图3为本发明提供的图像处理方法的流程示意图二;
图4为本发明提供的获取同一特征点对应的三维坐标的示意图;
图5为本发明提供的图像处理方法的流程示意图三;
图6为本发明提供的图像处理装置的结构示意图一;
图7为本发明提供的图像处理装置的结构示意图二;
图8为本发明提供的图像处理装置的结构示意图三。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明的实施例,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
现有技术中,无人驾驶车辆上设置有激光雷达装置,通过发射激光获取无人驾驶车辆周围的点云数据,该点云数据包括无人驾驶车辆周围的环境中的物体的三维坐标;无人驾驶车辆中存储有无人驾驶区域的点云数据地图,该点云数据地图是由采集车辆在无人驾驶区域行驶时获取的点云数据的集合;无人驾驶车辆在实际的行驶过程中,根据采集到的当前点云数据,与存储的点云数据地图中的点云数据进行匹配,获取当前点云数据对应的无人驾驶车辆的所在的当前的位置。但是这种获取无人驾驶车辆位置的方式需要加载点云数据地图,即需要加载大量的三维坐标数据,加载量大且所需要的存储空间大。
为了解决上述问题,本发明提供一种图像处理方法,通过二维图像的方式获取无人驾驶车辆的位置,无需加载大量的三维点云数据,还节省了存储空间。图1为本发明提供的无人驾驶车辆上设置拍摄装置的示意图,如图1所示,本发明提供的无人驾驶车辆上设置有至少两个拍摄装置,图1中示例性的示出了两个拍摄装置,且该两个拍摄装置设置在车头的位置,拍摄装置为在图1中显示为黑色矩形。可以想到的是,本发明可以将拍摄装置设置在无人驾驶车辆的任意位置处。
图2为本发明提供的图像处理方法的流程示意图一,图2所示方法流程的执行主体可以为图像处理装置,该图像处理装置可由任意的软件和/或硬件实现。如图2所示,本实施例提供的图像处理方法可以包括:
S201,根据每个同一特征点在至少两个拍摄装置拍摄的每个图像中的图像坐标、每个拍摄装置的装置参数和每个拍摄装置在拍摄对应的图像时的三维坐标,获取每个图像中的每个同一特征点的三维坐标,同一特征点用于表征实际环境中的同一位置。
现有技术中采用拍摄装置拍摄图像,拍摄装置所在的实际位置对应的坐标系为世界坐标系,拍摄装置与拍摄的图像之间构成的坐标系为摄像机坐标系,拍摄装置拍摄的图像所在的坐标系为图像物理坐标系,图像中每个像素块构成的坐标系为像素坐标系;值得注意的是,本实施例中的图像坐标为图像物理坐标系中的坐标值,图像坐标为二维坐标。
本实施例中的无人驾驶车辆上设置有至少两个拍摄装置,其中的拍摄装置可以为车载摄像头,拍摄装置可以获取无人驾驶车辆行驶过程中的视频数据,并将该获取的视频数据发送给图像处理装置;视频数据由多帧图像组成,图像处理装置可以从每个拍摄装置发送的视频数据中提取对应的连续的多帧图像,获取每个拍摄装置对应的多个连续的图像。
具体的,同一特征点用于表征实际环境中的同一位置,即无人驾驶车辆周围的同一位置在图像中表征为同一特征点,本实施例中可以根据任意图像中一特征点对应的图像特征,在其他图像中获取该特征点对应的同一特征点;示例性的,如无人驾驶车辆周围的同一位置为垃圾桶的顶端的A位置,则在图像处理装置获取的任意图像中获取该A位置对应的特征点的图像特征和图像坐标,根据该图像特征在其他图像上获取与该特征相同的特征点,作为该特征点的同一特征点,并获取该同一特征点在其他图像中的图像坐标。每个同一特征点对应有多个图像坐标。
值得注意的是,并非在拍摄装置拍摄的所有的图像中均具有每个同一特征点的图像坐标;针对一特征点,本实施例中在所有的图像中根据该一特征点的图像特征确定是否存在该特征点的同一特征点,若存在,则获取该同一特征点的图像坐标,若不存在,则忽略该图像。
本实施例中的每个拍摄装置的装置参数可以预先存储在图像处理装置中,针对每个拍摄装置拍摄的图像在处理时,应用的是该拍摄装置对应的装置参数;具体的,在拍摄装置设置在无人驾驶车辆上之前,可以根据每个拍摄装置拍摄的历史图像获取每个拍摄装置的装置参数,其中,每个拍摄装置的装置参数可以包括拍摄装置的内参和外参,内参可以为拍摄装置的焦距,外参为拍摄装置之间的平移参数和旋转参数。
具体的,每个拍摄装置中预设有定位模块,根据定位模块,可以获取每个拍摄装置的三维坐标。进一步的,多帧图像对应不同的获取时刻,对于一个拍摄装置获取的多帧图像来说,同一时刻可能对应多帧图像,当同一时刻对应有多帧图像时,可以将其中任意一帧图像作为该时刻对应的图像。
具体的,图像处理装置可以根据每个图像对应的获取时刻,将获取各时刻对应的图像,可以根据每个图像对应的时刻,将拍摄装置在同一时刻获取的图像作为一组图像,因此可以获取多组图像。其中,一组图像中的每个图像对应有该拍摄装置的三维坐标。
本实施例中,根据每个同一特征点在至少两个拍摄装置拍摄的每个图像中的图像坐标、每个拍摄装置的装置参数和每个拍摄装置在拍摄对应的图像时的三维坐标,获取每个图像中的每个同一特征点的三维坐标的具体方式可以是:
在一组图像中,获取每个同一特征点的图像坐标,对于一个同一特征点来说,可以获取每个拍摄装置在拍摄对应的图像时的三维坐标,将每个拍摄装置坐在的位置与每个图像中的同一特征点进行连线,获取每个拍摄装置对应的连线,该多个连线的交点即为该同一特征点对应的三维坐标。
S202,根据每个图像中的每个同一特征点的三维坐标,以及,每个拍摄装置在拍摄对应的图像时的三维坐标,获取无人驾驶车辆的三维坐标。
本实施例中,在图像处理装置获取每个图像中每个同一特征点对应的三维坐标后,按照相同的方式,可以获取一组图像中,每个图像中每个同一特征点对应的三维坐标,一组图像对应的每个同一特征点对应的三维坐标的集合即为:该组图像对应的拍摄时刻该无人驾驶车辆周围环境的三维坐标。
具体的,本实施例中在获取各时刻无人驾驶车辆周围环境的三维坐标后,根据每个拍摄装置的装置参数,可以获取各时刻拍摄装置在该无人驾驶车辆周围环境的三维坐标中的相对位置,可以将拍摄装置在该无人驾驶车辆周围环境的三维坐标中的相对位置作为无人驾驶车辆的三维坐标;可以想到的是,各时刻获取的无人驾驶车辆周围环境的三维坐标对应有一组图像,即对应有多个拍摄装置,本实施例中可以将任意一个拍摄装置在该无人驾驶车辆周围环境的三维坐标中的相对位置作为无人驾驶车辆的三维坐标。为了保证获取的无人驾驶车辆的三维坐标的一致性,本实施例中可以预先设置标定拍摄装置,将该标定拍摄装置在该无人驾驶车辆周围环境的三维坐标中的相对位置作为无人驾驶车辆的三维坐标,该标定拍摄装置为至少两个拍摄装置中的任意一个拍摄装置。
S203,根据无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,获取无人驾驶车辆在每个图像中的图像坐标。
本实施例中获取的无人驾驶车辆周围环境的三维坐标为在世界坐标系中的三维坐标,按照现有技术中的投影方式,即世界坐标系中的世界坐标投影至图像物理坐标系中的投影方式,即本实施例中的三维坐标和图像坐标的转换关系,可以获取在无人驾驶车辆的三维坐标在对应的图像中的图像坐标。
具体的,本实施例中可以根据无人驾驶车辆的三维坐标在对应的图像中的图像坐标,获取无人驾驶车辆在连续的多个图像中的图像坐标,根据连续的多个图像,即可获取无人驾驶车辆在图像中的行车轨迹。
本实施例提供一种图像处理方法,包括:根据每个同一特征点在至少两个拍摄装置拍摄的每个图像中的图像坐标、每个拍摄装置的装置参数和每个拍摄装置在拍摄对应的图像时的三维坐标,获取每个图像中的每个同一特征点的三维坐标,同一特征点用于表征实际环境中的同一位置;根据每个图像中的每个同一特征点的三维坐标,以及,每个拍摄装置在拍摄对应的图像时的三维坐标,获取无人驾驶车辆的三维坐标;根据无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,获取无人驾驶车辆在每个图像中的图像坐标。本实施例在二维图像中获取、记录车辆所在的位置,避免了现有技术中即在大量的三维数据造成的加载数据量大的问题。
下面结合图3对本发明提供的图像处理方法中获取同一特征点的三维坐标和获取无人驾驶车辆的三维坐标的过程进行详细说明,图3为本发明提供的图像处理方法的流程示意图二,如图3所示,本实施例提供的图像处理方法可以包括:
S301,获取至少两个拍摄装置拍摄的多组图像,一组图像包括至少两个拍摄装置同一时刻拍摄的图像。
本实施例中,图像处理装置获取拍摄装置发送的视频数据后,可以在视频数据中提取连续的多帧图像,根据每个拍摄装置对应的多帧图像的拍摄时间,将多个拍摄装置在同一时刻拍摄的图像作为一组图像,连续的多个时刻对应的多组图像为:图像处理装置获取的至少两个拍摄装置拍摄的多组图像。
可以想到的是,同一时刻每个拍摄装置可能拍摄了多帧图像,可以将该时刻每个拍摄装置对应的任意一帧图像作为该时刻对应的图像。
S302,根据多个同一特征点在每组图像中的图像坐标,以及,多个同一特征点在每个拍摄装置拍摄的多个图像中的图像坐标,获取每个拍摄装置的装置参数。
本实施例中的每个拍摄装置的装置参数包括:每个拍摄装置的内参和外参,其中,内参为拍摄装置的焦距;外参为拍摄装置之间的平移参数和旋转参数。具体的,根据多个同一特征点在每组图像中的图像坐标获取外参,根据多个同一特征点在每个拍摄装置拍摄的多个图像中的图像坐标获取内参。
从世界坐标系中的点X(X,Y,Z),投影到图像物理坐标系中的x(x,y),可以如下公式一所示:
x=K[R|t]X 公式一
K为拍摄装置的内参,具体为拍摄装置的焦距。R和t为拍摄装置的外参,分别表示旋转参数、平移参数。
本实施例中,一个拍摄装置的外参表示分别表示当前图像相对与参考图像的旋转参数和平移参数,其中,参考图像可以为当前图像的上一个图像;任意两个拍摄装置的外参表示分别表示一个拍摄装置对应的图像相对与一个拍摄装置对应的图像的旋转参数和平移参数。
一般用投影矩阵P来表示从世界坐标投影到图像坐标的过程,如下公示二所示:
P=K[R|t] 公式二
若本实施例中的拍摄装置为两个,则一组图像包括两个图像,一组图像中的同一特征点的图像坐标分别为x1和x2,都对应世界坐标系中同一位置,该位置的三维坐标为X,结合公式二,可以表示为如下公式三:
结合上述公式一至公式三,可以获取对应的基础矩阵F,如下公式四所示:
其中,K1和R1分别为图像坐标是x1的特征点对应的旋转参数和平移参数K2和R2分别为图像坐标是x2的特征点对应的旋转参数和平移参数。
具体的,在获取每个拍摄装置的内参时,可以认为K1=K2,因此只要计算出F,即基础矩阵,可以通过分解基础矩阵的方法得到K、R和t。
本实施例中,可以根据一组图像中的多个特征点的图像坐标,带入公式四中获取拍摄装置的内参和外参。
具体的,本实施例中的获取每个拍摄装置的内参时,是根据每个拍摄装置拍摄的多个连续的图像中的同一特征点的图像,获取每个拍摄装置焦距;获取每个拍摄装置的外参时,该外参为至少两个拍摄装置之间的旋转参数和平移参数,即为一个拍摄装置对应的图像相对与一个拍摄装置对应的图像的旋转参数和平移参数。
其中,至少两个拍摄装置之间的旋转参数和平移参数的获取方式为:在一组图像中,获取多个同一特征点的图像坐标,带入上述公式四中获取至少两个拍摄装置之间的旋转参数和平移参数。
S303,根据每个同一特征点在每个图像中的图像坐标、每个拍摄装置的参数和每个拍摄装置在拍摄对应的图像时的三维坐标,获取每个拍摄装置拍摄对应的图像时的拍摄视线,拍摄视线为:每个拍摄装置与对应的每个同一特征点组成的连线。
本实施例中,根据一组图像中的多个同一特征点在每个图像中的图像坐标、每个拍摄装置的参数和每个拍摄装置在拍摄对应的图像时的三维坐标,获取每个拍摄装置拍摄对应的图像时的拍摄视线。具体的,拍摄视线为:每个拍摄装置与对应的每个同一特征点组成的连线。
示例性的,图4为本发明提供的获取同一特征点对应的三维坐标的示意图,图4中以拍摄装置为两个,一组图像包括两个图像进行示例说明,图像1中的图像坐标x1和图像2中的图像坐标x2为同一特征点,a点为拍摄装置A在拍摄图像A时对应的三维坐标,b点为拍摄装置B在拍摄图像B时对应的三维坐标;本实施例中根据拍摄装置A和拍摄装置B的装置参数,以及a点为拍摄装置A在拍摄图像A时对应的三维坐标和b点为拍摄装置B在拍摄图像B时对应的三维坐标,获取拍摄装置A与同一特征点中图像坐标x1的组成的拍摄视线l1,以拍摄装置B与同一特征点中图像坐标x2的组成的拍摄视线l2,l1和l2如图4中的虚线所示。
S304,获取每组图像对应的拍摄视线的交点,交点为每个同一特征点的三维坐标。
一组图像中包含有多个拍摄视线,该拍摄视线的个数与拍摄装置的个数相同;本实施例中,图像处理装置在获取一组图像中的每个同一特征点对应的拍摄视线后,每个同一特征点对应的拍摄视线的交点即为该同一特征点对应的三维坐标。
示例性的,图4中的拍摄视线l1拍和拍摄视线l2的交点为c位置,该c位置的三维坐标即为同一特征点的三维坐标。
按照上述方法,可以获取一组图像中的每个同一特征点对应的三维坐标,所有的同一特征点对应的三维坐标的集合即为该组图像获取时刻对应的无人驾驶车辆周围的环境的三维坐标。
S305,根据每个图像中的每个同一特征点的三维坐标,获取每个图像对应的实际环境的三维模型,三维模型包括每个同一特征点的三维坐标。
本实施例中,图像处理装置获取一组图像中每个图像中的每个同一特征点的三维坐标后,可以将该多个同一特征点对应的三维坐标的集合作为该一组图像对应的获取时刻的无人驾驶车辆实际环境的三维模型,具体的,该三维模型包括每个同一特征点的三维坐标。
可以想到的是,在不同时刻获取的多组图像,可以按照相同的方式获取每组图像对应的三维模型,即在不同的时刻,图像处理装置可以获取无人驾驶车辆实际环境的三维模型。
S306,根据每个拍摄装置在拍摄对应的图像时的三维坐标和三维模型,获取无人驾驶车辆的三维坐标。
本实施例中,图像处理装置获取到各时刻无人驾驶车辆周围的三维模型,但由于无人驾驶车辆在实际行驶过程中存在转向,且由于拍摄装置设置位置的差异,使得获取的各时刻对应的三维模型的垂直方向并非完全与重力方向平行。
具体的,本实施例中可以获取各时刻拍摄装置在对应的三维模型中的三维坐标,将该三维坐标平移至路面所在的路平面上,即可将该平移后的路平面上的三维坐标作为无人驾驶车辆在对应的三维模型中的三维坐标。
其中,图像装置获取三维模型的垂直方向,将三维模型旋转至垂直方向与重力方向平行,路平面的法线方向与旋转后的三维模型的垂直方向平行。
旋转后的三维模型的垂直方向与重力方向平行,根据路平面的法线方向与重力方向平行,在三维模型中获取路平面所在的位置;具体的,路平面与旋转后的三维模型的垂直方向垂直,路平面的法线方向与三维模型的垂直方向平行。
本实施例中,根据每个拍摄装置在拍摄对应的图像时的三维坐标和路平面所在的位置,获取无人驾驶车辆的三维坐标,具体的,可以根据拍摄装置的外参,获取每个拍摄装置在拍摄对应的图像时的三维坐标在三维模型的三维坐标,将每个拍摄装置在三维模型的三维坐标沿重力方向平移至路平面所在的位置,并将平移后的三维坐标作为无人驾驶车辆的三维坐标。本实施例中,拍摄装置为至少两个,当每个拍摄装置在三维模型的三维坐标在平移后,获取对应的多个待选三维坐标,可以将多个待选三维坐标的中心三维坐标作为无人驾驶车辆的三维坐标。
S307,根据无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,获取无人驾驶车辆在每个图像中的图像坐标。
本实施例中的S307的实施方式具体可以参照上述实施例中S204的相关描述,在此不做限制。
本实施例中,根据多个同一特征点在每组图像中的图像坐标,以及,多个同一特征点在每个拍摄装置拍摄的多个图像中的图像坐标,获取每个拍摄装置的装置参数,且根据每个同一特征点在每个图像中的图像坐标、每个拍摄装置的参数和每个拍摄装置在拍摄对应的图像时的三维坐标,获取每个拍摄装置拍摄对应的图像时的拍摄视线,将每组图像对应的拍摄视线的交点,交点为每个同一特征点的三维坐标,根据每组图像中每个同一特征点对应的三维坐标,获取无人驾驶车辆周围的实际环境的三维模型;将拍摄装置在三维模型中的三维坐标沿重力方向平移至路平面所在的位置,并将平移后的三维坐标作为无人驾驶车辆的三维坐标。本实施例中根据同一特征点的图像坐标和拍摄装置的三维坐标,获取各时刻的三维模型,根据三维模型和拍摄装置的三维坐标获取无人驾驶车辆的三维坐标,根据无人驾驶车辆的三维坐标获取无人驾驶车辆在图像中的二维坐标,避免了现有技术中即在大量的三维数据造成的加载数据量大的问题。
下面结合图5对本发明提供的图像处理方法进行进一步说明,图5为本发明提供的图像处理方法的流程示意图三,如图5所示,本实施例提供的图像处理方法可以包括:
S501,获取至少两个拍摄装置拍摄的多组图像,一组图像包括至少两个拍摄装置同一时刻拍摄的图像。
S502,根据多个同一特征点在每组图像中的图像坐标,以及,多个同一特征点在每个拍摄装置拍摄的多个图像中的图像坐标,获取每个拍摄装置的装置参数。
本实施例中的每个拍摄装置的装置参数包括:每个拍摄装置的内参和外参,其中,内参为拍摄装置的焦距和畸变参数;外参为拍摄装置之间的平移参数和旋转参数。
本实施例中针对同一时刻每个拍摄装置拍摄的图像之间存在畸变时的情况进行具体说明,在获取每个拍摄装置的装置参数中的内参时,其中的内参包括畸变参数。
具体的,图像存在畸变时,上述实施例中的公式三具体可具体变换为下式公式五所示:
具体的,M为畸变参数,结合上述公式一至公式二,公式四至公式五,以及多个同一特征点的图像坐标,可以获取畸变参数。
S503,根据每个同一特征点在每个图像中的图像坐标、每个拍摄装置的参数和每个拍摄装置在拍摄对应的图像时的三维坐标,获取每个拍摄装置拍摄对应的图像时的拍摄视线。
S504,获取每组图像对应的拍摄视线的交点,交点为每个同一特征点的三维坐标。
S505,根据每个图像中的每个同一特征点的三维坐标,获取每个图像对应的实际环境的三维模型。
S506,根据每个拍摄装置在拍摄对应的图像时的三维坐标和三维模型,获取无人驾驶车辆的三维坐标。
S507,根据无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,获取无人驾驶车辆在每个图像中的待修正图像坐标。
上述实施例中的直接将获取的无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,将三维转换后的二维图像坐标为待修正图像坐标。
S508,根据畸变参数对待修正图像坐标进行修正,获取无人驾驶车辆在每个图像中的图像坐标。
具体的,本实施例中的畸变参数M具体包括畸变因子k1,k2,k3,k4,k5,k6,p1,p2,r表示图像坐标(x,y)到图像中心的距离,可根据如下公式六和公式七根据畸变参数对待修正图像坐标进行修正:
其中,x为修正后的图像坐标的横坐标,y为修正后的图像坐标的横坐标,u为修正后的图像坐标的横坐标,v为修正后的图像坐标的横坐标。
本实施例中,根据多个同一特征点在每组图像中的图像坐标,以及,多个同一特征点在每个拍摄装置拍摄的多个图像中的图像坐标,获取每个拍摄装置的装置参数中的畸变参数,根据畸变参数对获取的无人驾驶车辆在每个图像中的待修正图像坐标进行修正,避免因为畸变导致获取的无人驾驶车辆在每个图像中的图像坐标不准确的问题。
图6为本发明提供的图像处理装置的结构示意图一,如图6所示,该图像处理装置600包括:同一特征点的三维坐标获取模块601、无人驾驶车辆的三维坐标获取模块602、图像坐标获取模块603。
同一特征点的三维坐标获取模块601,用于根据每个同一特征点在至少两个拍摄装置拍摄的每个图像中的图像坐标、每个拍摄装置的装置参数和每个拍摄装置在拍摄对应的图像时的三维坐标,获取每个图像中的每个同一特征点的三维坐标,同一特征点用于表征实际环境中的同一位置。
无人驾驶车辆的三维坐标获取模块602,用于根据每个图像中的每个同一特征点的三维坐标,以及,每个拍摄装置在拍摄对应的图像时的三维坐标,获取无人驾驶车辆的三维坐标;
图像坐标获取模块603,用于根据无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,获取无人驾驶车辆在每个图像中的图像坐标。
本实施例提供的图像处理装置与上述图像处理方法实现的原理和技术效果类似,在此不作赘述。
可选的,图7为本发明提供的图像处理装置的结构示意图二,如图7所示,该图像处理装置600还包括:装置参数获取模块604、三维模型获取模块605和旋转模块606。
装置参数获取模块604,用于获取至少两个拍摄装置拍摄的多组图像,一组图像包括至少两个拍摄装置同一时刻拍摄的图像;根据多个同一特征点在每组图像中的图像坐标,以及,多个同一特征点在每个拍摄装置拍摄的多个图像中的图像坐标,获取每个拍摄装置的装置参数。
三维模型获取模块605,用于根据每个图像中的每个同一特征点的三维坐标,获取每个图像对应的实际环境的三维模型,三维模型包括每个同一特征点的三维坐标。
可选的,无人驾驶车辆的三维坐标获取模块602,具体用于根据每个拍摄装置在拍摄对应的图像时的三维坐标和三维模型,获取无人驾驶车辆的三维坐标。
可选的,同一特征点的三维坐标获取模块601,具体用于根据每个同一特征点在每个图像中的图像坐标、每个拍摄装置的参数和每个拍摄装置在拍摄对应的图像时的三维坐标,获取每个拍摄装置拍摄对应的图像时的拍摄视线,拍摄视线为:每个拍摄装置与对应的每个同一特征点组成的连线;获取每组图像对应的拍摄视线的交点,交点为每个同一特征点的三维坐标。
可选的,无人驾驶车辆的三维坐标获取模块602,具体用于根据路平面的法线方向与重力方向平行,在三维模型中获取路平面所在的位置;根据每个拍摄装置在拍摄对应的图像时的三维坐标和路平面所在的位置,获取无人驾驶车辆的三维坐标。
旋转模块606,用于获取三维模型的垂直方向,将三维模型旋转至垂直方向与重力方向平行,路平面的法线方向与旋转后的三维模型的垂直方向平行。
可选的,装置参数中包括:畸变参数。
图像坐标获取模块603,具体用于根据无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,获取无人驾驶车辆在每个图像中的待修正图像坐标;根据畸变参数对待修正图像坐标进行修正,获取无人驾驶车辆在每个图像中的图像坐标。
图8为本发明提供的图像处理装置的结构示意图三,该图像处理装置例如可以是终端设备,比如智能手机、平板电脑、计算机等。如图8所示,该图像处理装置800包括:存储器801和至少一个处理器802。
存储器801,用于存储程序指令。
处理器802,用于在程序指令被执行时实现本实施例中的图像处理方法,具体实现原理可参见上述实施例,本实施例此处不再赘述。
该图像处理装置800还可以包括及输入/输出接口803。
输入/输出接口803可以包括独立的输出接口和输入接口,也可以为集成输入和输出的集成接口。其中,输出接口用于输出数据,输入接口用于获取输入的数据,上述输出的数据为上述方法实施例中输出的统称,输入的数据为上述方法实施例中输入的统称。
本发明还提供一种可读存储介质,可读存储介质中存储有执行指令,当图像处理装置的至少一个处理器执行该执行指令时,当计算机执行指令被处理器执行时,实现上述实施例中的图像处理方法。
本发明还提供一种程序产品,该程序产品包括执行指令,该执行指令存储在可读存储介质中。图像处理装置的至少一个处理器可以从可读存储介质读取该执行指令,至少一个处理器执行该执行指令使得图像处理装置实施上述的各种实施方式提供的图像处理方法。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(英文:processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(英文:Read-Only Memory,简称:ROM)、随机存取存储器(英文:Random Access Memory,简称:RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
在上述网络设备或者终端设备的实施例中,应理解,处理器可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:ApplicationSpecific Integrated Circuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (10)
1.一种图像处理方法,其特征在于,无人驾驶车辆上设置有至少两个拍摄装置,所述方法包括:
根据每个同一特征点在至少所述两个拍摄装置拍摄的每个图像中的图像坐标、每个所述拍摄装置的装置参数和每个所述拍摄装置在拍摄对应的图像时的三维坐标,获取每个所述图像中的每个所述同一特征点的三维坐标,所述同一特征点用于表征实际环境中的同一位置;
根据每个所述图像中的每个所述同一特征点的三维坐标,以及,每个所述拍摄装置在拍摄对应的图像时的三维坐标,获取所述无人驾驶车辆的三维坐标;
根据所述无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,获取所述无人驾驶车辆在每个所述图像中的图像坐标。
2.根据权利要求1所述的方法,其特征在于,所述获取每个所述图像中的每个所述同一特征点的三维坐标之前,包括:
获取至少两个所述拍摄装置拍摄的多组图像,一组所述图像包括至少两个所述拍摄装置同一时刻拍摄的图像;
根据多个所述同一特征点在每组所述图像中的图像坐标,以及,多个所述同一特征点在每个所述拍摄装置拍摄的多个图像中的图像坐标,获取每个所述拍摄装置的装置参数。
3.根据权利要求1所述的方法,其特征在于,所述获取所述无人驾驶车辆的三维坐标之前,还包括:
根据每个所述图像中的每个所述同一特征点的三维坐标,获取每个所述图像对应的实际环境的三维模型,所述三维模型包括每个所述同一特征点的三维坐标;
所述获取所述无人驾驶车辆的三维坐标,包括:
根据每个所述拍摄装置在拍摄对应的图像时的三维坐标和所述三维模型,获取所述无人驾驶车辆的三维坐标。
4.根据权利要求2所述的方法,其特征在于,所述获取每个所述图像中的每个所述同一特征点的三维坐标,包括:
根据每个所述同一特征点在每个所述图像中的图像坐标、每个所述拍摄装置的参数和每个所述拍摄装置在拍摄对应的图像时的三维坐标,获取每个所述拍摄装置拍摄对应的图像时的拍摄视线,所述拍摄视线为:每个所述拍摄装置与对应的每个所述同一特征点组成的连线;
获取每组所述图像对应的拍摄视线的交点,所述交点为每个所述同一特征点的三维坐标。
5.根据权利要求3所述的方法,其特征在于,所述根据每个所述拍摄装置在拍摄对应的图像时的三维坐标和所述三维模型,获取所述无人驾驶车辆的三维坐标,包括:
根据路平面的法线方向与重力方向平行,在所述三维模型中获取所述路平面所在的位置;
根据每个所述拍摄装置在拍摄对应的图像时的三维坐标和所述路平面所在的位置,获取所述无人驾驶车辆的三维坐标。
6.根据权利要求5所述的方法,其特征在于,所述在所述三维模型中获取所述路平面所在的位置之前,还包括:
获取所述三维模型的垂直方向,将所述三维模型旋转至所述垂直方向与所述重力方向平行,所述路平面的法线方向与旋转后的所述三维模型的垂直方向平行。
7.根据权利要求1所述的方法,其特征在于,所述装置参数中包括:畸变参数;
所述获取所述无人驾驶车辆在每个所述图像中的图像坐标,包括:
根据所述无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,获取所述无人驾驶车辆在每个所述图像中的待修正图像坐标;
根据所述畸变参数对所述待修正图像坐标进行修正,获取所述无人驾驶车辆在每个所述图像中的图像坐标。
8.一种图像处理装置,其特征在于,包括:
同一特征点的三维坐标获取模块,用于根据每个同一特征点在至少两个拍摄装置拍摄的每个图像中的图像坐标、每个所述拍摄装置的装置参数和每个所述拍摄装置在拍摄对应的图像时的三维坐标,获取每个所述图像中的每个所述同一特征点的三维坐标,所述同一特征点用于表征实际环境中的同一位置;
无人驾驶车辆的三维坐标获取模块,用于根据每个所述图像中的每个所述同一特征点的三维坐标,以及,每个所述拍摄装置在拍摄对应的图像时的三维坐标,获取所述无人驾驶车辆的三维坐标;
图像坐标获取模块,用于根据所述无人驾驶车辆的三维坐标,以及,三维坐标和图像坐标的转换关系,获取所述无人驾驶车辆在每个所述图像中的图像坐标。
9.一种图像处理装置,其特征在于,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述图像处理装置执行权利要求1-7任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机执行指令,当所述计算机执行指令被处理器执行时,实现权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811643204.1A CN109801339B (zh) | 2018-12-29 | 2018-12-29 | 图像处理方法、装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811643204.1A CN109801339B (zh) | 2018-12-29 | 2018-12-29 | 图像处理方法、装置和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109801339A true CN109801339A (zh) | 2019-05-24 |
CN109801339B CN109801339B (zh) | 2021-07-20 |
Family
ID=66558332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811643204.1A Active CN109801339B (zh) | 2018-12-29 | 2018-12-29 | 图像处理方法、装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109801339B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112289074A (zh) * | 2020-12-24 | 2021-01-29 | 南京酷朗电子有限公司 | 基于停车位监控摄像的引导车辆驾驶的方法 |
CN113129423A (zh) * | 2019-12-30 | 2021-07-16 | 百度在线网络技术(北京)有限公司 | 车辆三维模型的获取方法、装置、电子设备和存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103593836A (zh) * | 2012-08-14 | 2014-02-19 | 无锡维森智能传感技术有限公司 | 一种摄像头参数计算方法及相机确定车体姿态的方法 |
CN103837139A (zh) * | 2012-11-23 | 2014-06-04 | 株式会社日立制作所 | 不平路面驾驶辅助设备和用于不平路面驾驶辅助的方法 |
CN105300403A (zh) * | 2015-09-22 | 2016-02-03 | 清华大学 | 一种基于双目视觉的车辆里程计算法 |
CN106926800A (zh) * | 2017-03-28 | 2017-07-07 | 重庆大学 | 多摄像头适配的车载视觉感知系统 |
CN107507249A (zh) * | 2017-09-21 | 2017-12-22 | 程丹秋 | 一种智能车立体视觉系统 |
CN108106627A (zh) * | 2017-12-20 | 2018-06-01 | 清华大学 | 一种基于特征点在线动态标定的单目视觉车辆定位方法 |
CN108765496A (zh) * | 2018-05-24 | 2018-11-06 | 河海大学常州校区 | 一种多视点汽车环视辅助驾驶系统及方法 |
-
2018
- 2018-12-29 CN CN201811643204.1A patent/CN109801339B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103593836A (zh) * | 2012-08-14 | 2014-02-19 | 无锡维森智能传感技术有限公司 | 一种摄像头参数计算方法及相机确定车体姿态的方法 |
CN103837139A (zh) * | 2012-11-23 | 2014-06-04 | 株式会社日立制作所 | 不平路面驾驶辅助设备和用于不平路面驾驶辅助的方法 |
CN105300403A (zh) * | 2015-09-22 | 2016-02-03 | 清华大学 | 一种基于双目视觉的车辆里程计算法 |
CN106926800A (zh) * | 2017-03-28 | 2017-07-07 | 重庆大学 | 多摄像头适配的车载视觉感知系统 |
CN107507249A (zh) * | 2017-09-21 | 2017-12-22 | 程丹秋 | 一种智能车立体视觉系统 |
CN108106627A (zh) * | 2017-12-20 | 2018-06-01 | 清华大学 | 一种基于特征点在线动态标定的单目视觉车辆定位方法 |
CN108765496A (zh) * | 2018-05-24 | 2018-11-06 | 河海大学常州校区 | 一种多视点汽车环视辅助驾驶系统及方法 |
Non-Patent Citations (2)
Title |
---|
FABIO BELLAVIA ET AL: "Selective visual odometry for accurate AUV localization", 《AUTON ROBOT》 * |
陈红岩: "无人车立体视觉里程计研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113129423A (zh) * | 2019-12-30 | 2021-07-16 | 百度在线网络技术(北京)有限公司 | 车辆三维模型的获取方法、装置、电子设备和存储介质 |
CN113129423B (zh) * | 2019-12-30 | 2023-08-11 | 百度在线网络技术(北京)有限公司 | 车辆三维模型的获取方法、装置、电子设备和存储介质 |
CN112289074A (zh) * | 2020-12-24 | 2021-01-29 | 南京酷朗电子有限公司 | 基于停车位监控摄像的引导车辆驾驶的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109801339B (zh) | 2021-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108446310B (zh) | 虚拟街景地图生成方法、装置和客户端设备 | |
US11330172B2 (en) | Panoramic image generating method and apparatus | |
CN100485720C (zh) | 一种基于序列静态图像的360°环视全景生成方法 | |
CN109242961A (zh) | 一种脸部建模方法、装置、电子设备和计算机可读介质 | |
US8390617B1 (en) | Visualizing oblique images | |
CN108401461A (zh) | 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品 | |
CN105847662A (zh) | 一种基于移动终端的运动物体拍摄方法和移动终端 | |
CN109829981A (zh) | 三维场景呈现方法、装置、设备及存储介质 | |
CN106611441B (zh) | 三维地图的处理方法和装置 | |
CN109559349A (zh) | 一种用于标定的方法和装置 | |
CN106780707B (zh) | 模拟场景中全局光照的方法和装置 | |
CN108648264A (zh) | 基于运动恢复的水下场景重建方法及存储介质 | |
KR20210095913A (ko) | 맵 작성 방법, 장치, 및 시스템, 및 저장 매체 | |
CN106887043A (zh) | 三维建模外点去除的方法、装置及三维建模的方法 | |
CN107368192A (zh) | Vr眼镜的实景观测方法及vr眼镜 | |
CN108509173A (zh) | 图像展示系统及方法、存储介质、处理器 | |
CN113657357B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN109801339A (zh) | 图像处理方法、装置和存储介质 | |
JP5350427B2 (ja) | 画像処理装置、画像処理装置の制御方法、及びプログラム | |
CN113763569A (zh) | 一种在三维仿真中使用的图像标注方法及装置、电子设备 | |
CN114943773A (zh) | 相机标定方法、装置、设备和存储介质 | |
CN105611267A (zh) | 现实世界和虚拟世界图像基于深度和色度信息的合并 | |
CN114926612A (zh) | 空中全景图像处理与沉浸式显示系统 | |
CN107862652A (zh) | 一种鸟瞰图生成方法及装置 | |
CN105989354A (zh) | 一种定位方法与系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |