CN116665032A - 一种控制无人设备的方法、装置及电子设备 - Google Patents
一种控制无人设备的方法、装置及电子设备 Download PDFInfo
- Publication number
- CN116665032A CN116665032A CN202210142083.2A CN202210142083A CN116665032A CN 116665032 A CN116665032 A CN 116665032A CN 202210142083 A CN202210142083 A CN 202210142083A CN 116665032 A CN116665032 A CN 116665032A
- Authority
- CN
- China
- Prior art keywords
- image
- feature point
- target image
- determining
- designated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 238000005457 optimization Methods 0.000 claims description 23
- 238000012795 verification Methods 0.000 claims description 21
- 238000003860 storage Methods 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000006872 improvement Effects 0.000 description 8
- 239000011159 matrix material Substances 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000009826 distribution Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
Abstract
本说明书公开了一种控制无人设备的方法、装置及电子设备,本说明书实施例针对目标图像中的每个特征点以及该特征对应的各关联图像,根据目标图像和各关联图像的采集时刻,判断各关联图像中是否与目标图像采集时刻相同的指定图像。若存在,根据目标图像与指定图像之间的基线信息确定目标图像对应的深度图,若不存在,根据采集目标图像时的位姿以及采集各关联图像时的位姿,确定目标图像对应的深度图。基于目标图像对应的深度图,对无人设备进行控制。在根据基线信息确定深度图比根据位姿确定深度图更加准确的情况下,针对目标图像与各关联图像之间的不同判断结果而采用不同的方法得到深度图,可以有效提高深度图中深度的准确性。
Description
技术领域
本说明书涉及无人驾驶领域,尤其涉及一种控制无人设备的方法、装置及电子设备。
背景技术
在无人驾驶领域中,通常基于视觉定位算法,确定无人设备自身的位姿,从而为无人设备规划出安全的运动路径,并基于规划出的运动路径,控制无人设备进行运动。其中,视觉定位算法涉及的深度图中特征点深度的精度,影响着无人设备的定位精度以及控制精度。
现有技术中,可以根据预估的视觉传感器采集各图像时的位姿,确定各图像中同一特征点的深度。
然而,现有技术若视觉传感器采集各图像时的位姿预估不准确,容易造成确定出的特征点深度不准确,从而降低无人设备的控制精度。
发明内容
本说明书实施例提供一种控制无人设备的方法、装置、存储介质及电子设备,以部分解决上述现有技术存在的问题。
本说明书实施例采用下述技术方案:
本说明书提供的一种控制无人设备的方法,包括:
获取目标图像,以及针对所述目标图像中的每个特征点,获取与该特征点对应的各关联图像;
根据视觉传感器采集所述目标图像以及所述各关联图像的采集时刻,判断所述各关联图像中是否存在与所述目标图像的采集时刻相同的指定图像;
若存在,根据该特征点位于所述目标图像中的位置、该特征点位于所述指定图像中的位置,以及所述目标图像与所述指定图像之间标定的基线信息,确定所述目标图像对应的深度图;若不存在,根据该特征点位于所述目标图像中的位置、该特征点位于所述各关联图像中的位置、采集所述目标图像时的位姿以及采集所述各关联图像时的位姿,确定所述目标图像对应的深度图;
基于所述目标图像对应的深度图,对无人设备进行控制。
可选地,根据该特征点位于所述目标图像中的位置、该特征点位于所述指定图像中的位置,以及所述目标图像与所述指定图像之间标定的基线信息,确定所述目标图像对应的深度图,具体包括:
根据该特征点位于所述目标图像中的位置、该特征点位于所述指定图像中的位置,以及所述目标图像与所述指定图像之间标定的基线信息,确定所述目标图像中该特征点的初始深度;
根据该特征点的初始深度,确定将该特征点投影至所述各关联图像中所产生的投影偏差;
根据确定出的所述各关联图像产生的投影偏差对应的置信度,确定将该特征点投影至所述各关联图像中所产生的总投影偏差;
以所述总投影偏差最小化为目标,对该特征点的初始深度进行优化,得到该特征点优化后的深度;
根据所述目标图像包含的每个特征点优化后的深度,确定所述目标图像对应的深度图。
可选地,根据该特征点位于所述目标图像中的位置以及该特征点位于所述各关联图像中的位置,确定所述目标图像中该特征点的初始深度,具体包括:
根据预设的校验条件以及该特征点位于所述目标图像中的位置,对该特征点位于所述指定图像中的位置进行验证;
若验证通过,根据采集所述目标图像的视觉传感器与采集所述指定图像的视觉传感器之间标定的基线信息,以及该特征点位于所述目标图像中的位置和该特征点位于所述指定图像中的位置之间的视差,确定所述目标图像中该特征点的初始深度。
可选地,所述方法还包括:
若验证未通过,根据采集所述目标图像和采集所述各关联图像时的位姿、该特征点位于所述目标图像中的位置以及该特征点位于所述各关联图像中的位置,确定所述目标图像中该特征点的初始深度。
可选地,根据该特征点的初始深度,确定将该特征点投影至所述各关联图像中所产生的投影偏差,具体包括:
从所述各关联图像中确定出与所述目标图像采集时刻不同的各图像作为各非指定图像;
根据该特征点的初始深度以及所述目标图像与所述指定图像之间标定的基线信息,确定将该特征点投影至所述指定图像中所产生的投影偏差;
根据该特征点的初始深度以及预估出的视觉传感器采集所述各非指定图像时的位姿,确定将该特征点投影至所述各非指定图像中所产生的投影偏差。
可选地,根据该特征点的初始深度以及所述目标图像与所述指定图像之间标定的基线信息,确定将该特征点投影至所述指定图像中所产生的投影偏差,具体包括:
根据该特征点位于所述目标图像中的位置、该特征点的初始深度以及所述目标图像与所述指定图像之间标定的基线信息,将该特征点投影至所述指定图像中,得到投影位置;
根据所述投影位置以及所述指定图像中与该特征点匹配的特征点的位置,确定将该特征点投影至所述指定图像中所产生的投影偏差。
可选地,根据该特征点的初始深度以及预估出的视觉传感器采集所述各非指定图像时的位姿,确定将该特征点投影至所述各非指定图像中所产生的投影偏差,具体包括:
根据该特征点的初始深度,确定该特征点处于世界坐标系下的初始位置;
针对每个非指定图像,根据该特征点的初始位置以及预估出的视觉传感器采集该非指定图像时的位姿,将该特征点投影至该非指定图像中,得到投影位置;
根据该非指定图像中的投影位置以及该非指定图像中与该特征点匹配的特征点的位置,确定该特征点投影至该非指定图像中所产生的投影偏差。
可选地,确定所述各关联图像产生的投影偏差对应的置信度,具体包括:
根据预估出的视觉传感器采集所述非指定图像时的位姿的误差,确定所述非指定图像产生的投影偏差对应的置信度,其中,所述误差越大,所述非指定图像产生的投影偏差对应的置信度越小;
根据所述非指定图像产生的投影偏差对应的置信度,确定所述指定图像产生的投影偏差对应的置信度,其中,所述指定图像产生的投影偏差对应的置信度大于所述非指定图像产生的投影偏差对应的置信度。
可选地,对该特征点的初始深度进行优化,具体包括:
对该特征点的初始深度进行迭代优化;
根据所述非指定图像产生的投影偏差对应的置信度,确定所述指定图像产生的投影偏差对应的置信度,具体包括:
针对每次迭代,根据该次迭代的调整系数、所述非指定图像产生的投影偏差对应的置信度以及所述指定图像产生的投影偏差,确定所述指定图像产生的投影偏差对应的置信度。
本说明书提供的一种控制无人设备的装置,包括:
获取模块,用于获取目标图像,以及针对所述目标图像中的每个特征点,获取与该特征点对应的各关联图像;
判断模块,用于根据视觉传感器采集所述目标图像以及所述各关联图像的采集时刻,判断所述各关联图像中是否存在与所述目标图像的采集时刻相同的指定图像;
确定模块,用于若存在,根据该特征点位于所述目标图像中的位置、该特征点位于所述指定图像中的位置,以及所述目标图像与所述指定图像之间标定的基线信息,确定所述目标图像对应的深度图;若不存在,根据该特征点位于所述目标图像中的位置、该特征点位于所述各关联图像中的位置、采集所述目标图像时的位姿以及采集所述各关联图像时的位姿,确定所述目标图像对应的深度图;
控制模块,用于基于所述目标图像对应的深度图,对无人设备进行控制。
本说明书提供的一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述的控制无人设备的方法。
本说明书提供的一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述的控制无人设备的方法。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:
本说明书实施例中针对目标图像中的每个特征点以及该特征对应的各关联图像,根据目标图像和各关联图像的采集时刻,判断各关联图像中是否与目标图像采集时刻相同的指定图像。若存在,根据目标图像与指定图像之间的基线信息确定目标图像对应的深度图,若不存在,根据采集目标图像时的位姿以及采集各关联图像时的位姿,确定目标图像对应的深度图。基于目标图像对应的深度图,对无人设备进行控制。在根据基线信息确定深度图比根据位姿确定深度图更加准确的情况下,针对目标图像与各关联图像之间的不同判断结果而采用不同的方法得到深度图,可以有效提高深度图中深度的准确性。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书实施例提供的控制无人设备的流程示意图;
图2为本说明书实施例提供的存在指定图像的情况下深度优化的流程示意图;
图3为本说明书实施例提供的不存在指定图像的情况下深度优化的流程示意图;
图4为本说明书实施例提供的特征点优化的整体流程示意图;
图5为本说明书实施例提供的控制无人设备的装置结构示意图;
图6为本说明书实施例提供的深度优化的装置结构示意图;
图7为本说明书实施例提供的电子设备的结构示意图。
具体实施方式
在无人驾驶领域中,以无人机为例,可以通过安装在无人机上的视觉传感器,采集无人机周围环境的图像序列。然后,根据图像序列中的每个图像中特征点的深度,对无人机进行定位,即,确定无人机的位姿。所以,图像中特征点的深度的精度越高,无人机的定位精度也越高。
现有技术中有两种方法可以得到特征点的深度。
第一种方法是:可以通过视觉传感器采集到图像序列之后,预估出视觉传感器采集图像序列中每个图像时的位姿,然后,根据每个图像中同一特征点的像素坐标以及预估出的视觉传感器采集每个图像时的位姿,确定出同一特征点的深度。这就是所谓的“多帧三角化”。第一种方法确定特征点的深度的精度依赖于视觉传感器采集图像时的位姿的预估精度。其中,位姿的预估精度越高,求解特征点的深度的精度越高。当无人机悬停或大机动时,视觉传感器采集图像时的位姿的预估精度降低,导致特征点的深度求解精度降低。
第二种方法:通过双目视觉传感器,获取双目图像。其中,双目图像中包含同一特征点。可以根据双目视觉传感器采集双目图像时标定的基线信息,确定双目图像中同一特征点的深度。第二种方法确定特征点的深度的精度依赖于双目图像中同一特征点的跟踪精度和基线标定精度,没有结合包含双目图像中同一特征点的其他图像,确定同一特征点的深度。所以,当双目图像中同一特征点跟踪错误和/或基线标定不准时,容易造成确定出的特征点的深度不准确。
另外,针对这两种确定特征点深度的方法,第二种方法相较于第一种方法所确定出的特征点的深度的精度更高。
而本说明书提供的控制无人设备的方法旨在结合根据基线确定特征点的深度的方法和根据位姿约束确定特征点的深度的方法,并基于标定的基线确定特征点的深度比根据位姿约束确定特征点的深度的精度更高的先验信息,对优化过程中涉及的基于基线投影和位姿投影设置不同的权重,然后,根据加权后的投影偏差,对特征点的初始深度进行迭代优化。
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书实施例提供的控制无人设备的流程示意图,包括:
S100:获取目标图像,以及针对所述目标图像中的每个特征点,获取与该特征点对应的各关联图像。
在本说明书实施例中,可以通过安装在无人设备上的双目视觉传感器,采集图像序列。其中,双目视觉传感器可以是相机或摄像头,双目视觉传感器分为左目和右目,在相同时间段内,左目采集第一图像序列,右目采集第二图像序列。另外,本说明书中的无人设备可包括无人车和无人机,所述的无人设备可用于物流配送领域,既包括外卖、配送等即时配送领域,也包括其他非即时配送领域。
在双目视觉传感器采集到图像序列后,可以从图像序列中任意选择一个图像,作为目标图像,并将图像序列中除目标图像之外的图像作为其他图像。然后,针对目标图像中的每个特征点,从其他图像中确定出与该特征点对应的各图像,作为各关联图像。
具体的,在确定各关联图像时,针对目标图像中的每个特征点,将该特征点与其他图像中所有图像进行特征匹配。根据匹配结果,从其他图像中选择出存在与该特征点匹配的特征点的各图像,作为该特征点对应的各关联图像。其中,特征匹配的算法可以是光流匹配、SIFT、SURF、FAST等,本说明书中对此不作限制。
另外,在区分左右目采集的图像序列时,针对双目视觉传感器每个采集时刻,可以将左目该采集时刻所采集的任意图像作为目标图像,然后,针对目标图像中每个特征点,将该特征点与第一图像序列中的其他图像进行特征匹配,将该特征点与第二图像序列中的各图像进行特征匹配。根据目标图像中该特征点与第一图像序列中的其他图像的匹配结果,以及目标图像中该特征点与第二图像序列中各图像的匹配结果,确定该特征点对应的各关联图像。
以第二图像序列中与目标图像的采集时刻相同的图像为例,针对双目视觉传感器每个采集时刻,根据该采集时刻采集的目标图像中的每个特征点,可以将该特征点与右目的第二图像序列中该采集时刻采集的图像中的特征点进行匹配,即,特征跟踪。若第二图像序列中该采集时刻采集的图像中存在与该特征点匹配的特征点,则确定第二图像序列中该采集时刻采集的图像为该特征点对应的关联图像。
S102:根据视觉传感器采集所述目标图像以及所述各关联图像的采集时刻,判断所述各关联图像中是否存在与所述目标图像的采集时刻相同的指定图像。
S104:若存在,根据该特征点位于所述目标图像中的位置、该特征点位于所述指定图像中的位置,以及所述目标图像与所述指定图像之间标定的基线信息,确定所述目标图像对应的深度图;若不存在,根据该特征点位于所述目标图像中的位置、该特征点位于所述各关联图像中的位置、采集所述目标图像时的位姿以及采集所述各关联图像时的位姿,确定所述目标图像对应的深度图。
S106:基于所述目标图像对应的深度图,对无人设备进行控制。
在本说明书实施例中,在确定该特征点对应的各关联图像之后,可以根据双目视觉传感器采集目标图像与各关联图像的采集时刻,判断各关联图像中是否存在与目标图像采集时刻相同的指定图像。其中,指定图像是与目标图像采集时刻相同的图像,也就是,指定图像与目标图像是左右目同时采集的图像。
此外,在区分双目采集的图像序列时,在确定该特征点对应的各关联图像的过程中,可以根据目标图像与第二图像序列中各图像之间的匹配结果,可以判断出该特征点对应的各关联图像中是否存在与目标图像采集时刻相同的指定图像。
接下来,根据该特征点对应的各关联图像中是否存在指定图像的判断结果,针对存在指定图像和不存在指定图像这两种情况采用不同的方式确定目标图像对应的深度图。其中,深度图中包含特征点的深度值。
第一种情况:该特征点对应的各关联图像中存在指定图像。
当该特征点对应的各关联图像中存在指定图像时,根据该特征点位于目标图像中的位置、该特征点位于指定图像中的位置,以及目标图像与指定图像之间标定的基线信息,确定目标图像对应的深度图。
第二种情况:该特征点对应的各关联图像中不存在指定图像。
当该特征点对应的各关联图像中不存在指定图像时,根据该特征点位于目标图像中的位置、该特征点位于各关联图像中的位置、采集目标图像时的位姿以及采集各关联图像时的位姿,确定目标图像对应的深度图。
在确定目标图像对应的深度图像之后,可以根据目标图像对应的深度图,确定无人设备周围的障碍物与无人设备之间的相对位置。并根据无人设备周围的障碍物与无人设备之间的相对位置,为无人设备规划出安全的路径。根据规划出的路径,控制无人设备进行运动。
通过上述图1所示的方法可见,本说明书中针对目标图像中的每个特征点以及该特征对应的各关联图像,根据目标图像和各关联图像的采集时刻,判断各关联图像中是否与目标图像采集时刻相同的指定图像。若存在,根据目标图像与指定图像之间的基线信息确定目标图像对应的深度图,若不存在,根据采集目标图像时的位姿以及采集各关联图像时的位姿,确定目标图像对应的深度图。基于目标图像对应的深度图,对无人设备进行控制。在根据基线信息确定深度图像比根据位姿确定深度图更加准确的情况下,针对目标图像与各关联图像之间的不同判断结果而采用不同的方法得到深度图,可以有效提高深度图中深度的准确性。
针对第一种情况和第二种情况,为了提高特征点的深度的准确性,可以先确定目标图像中特征点的初始深度,再对特征点的初始深度进行优化,得到优化后的深度,最后,根据优化后的深度,确定的目标图像对应的深度图。
而本说明书中确定初始深度和初始深度优化过程中针对不同的情况采用不同的方式。
针对第一种情况:
图2为本说明书实施例提供的存在指定图像的情况下深度优化的流程示意图,包括:
S200:根据该特征点位于所述目标图像中的位置、该特征点位于所述指定图像中的位置,以及所述目标图像与所述指定图像之间标定的基线信息,确定所述目标图像中该特征点的初始深度。
在本说明书实施例中,可以先根据该特征点位于目标图像中的位置和该特征点位于指定图像中的位置,确定该特征点位于目标图像和指定图像时所产生的视差。然后,根据采集目标图像的视觉传感器与采集指定图像的视觉传感器之间标定的基线信息、焦距以及该特征点位于目标图像和指定图像时所产生的视差,确定目标图像包含的该特征点的初始深度。其中,采集目标图像的视觉传感器与采集指定图像的视觉传感器之间标定的基线信息,也就是,目标图像与指定图像之间标定的基线信息。基线信息可以表示双目视觉传感器之间的位姿变换关系。
S202:根据该特征点的初始深度,确定将该特征点投影至所述各关联图像中所产生的投影偏差。
在本说明书实施例中,在确定该特征点的初始深度之后,可以从各关联图像中确定出与目标图像采集时刻不同的各图像作为各非指定图像。然后,对指定图像和非指定图像采用不同的投影方式。其中,非指定图像是各关联图像中与目标图像采集时刻不同的图像。也就是说,当各关联图像中存在指定图像时,可以将所有关联图像分为指定图像和非指定图像。当各关联图像中不存在指定图像时,所有的关联图像都是非指定图像。
当该特征点对应的各关联图像中存在指定图像时,可以根据该特征点的初始深度以及目标图像与指定图像之间标定的基线信息,确定将该特征点投影至指定图像中所产生的投影偏差。
具体的,可以根据该特征点位于目标图像中的位置、该特征点的初始深度以及目标图像与指定图像之间标定的基线信息,将该特征点投影至指定图像中,得到投影位置。然后,根据投影位置以及指定图像中与该特征点匹配的特征点的位置,确定将该特征点投影至指定图像中所产生的投影偏差。
另外,针对各关联图像中除指定图像之外的非指定图像,可以根据该特征点的初始深度以及预估出的视觉传感器采集各非指定图像时的位姿,确定将该特征点投影至各非指定图像中所产生的投影偏差。
具体的,可以根据该特征点的初始深度,确定该特征点处于世界坐标系下的初始位置。然后,针对每个非指定图像,根据该特征点的初始位置以及预估出的视觉传感器采集该非指定图像时的位姿,将该特征点投影至该非指定图像中,得到投影位置。根据该非指定图像中的投影位置以及该非指定图像中与该特征点匹配的特征点的位置,确定该特征点投影至该非指定图像中所产生的投影偏差。
S204:根据确定出的所述各关联图像产生的投影偏差对应的置信度,确定将该特征点投影至所述各关联图像中所产生的总投影偏差。
S206:以所述总投影偏差最小化为目标,对该特征点的初始深度进行优化,得到该特征点优化后的深度。
S208:根据所述目标图像包含的每个特征点优化后的深度,确定所述目标图像对应的深度图。
在本说明书实施例中,在确定该特征点对应的各关联图像对应的投影偏差之后,可以根据确定出的各关联图像产生的投影偏差对应的置信度,确定将该特征点投影至所有关联图像中所产生的总投影偏差。以总投影偏差最小化为目标,对该特征点的初始深度进行迭代优化,得到该特征点优化后的深度。最后,根据目标图像包含的每个特征点优化后的深度,确定出目标图像对应的深度图。
其中,各关联图像产生的投影偏差对应的置信度实际上是各投影偏差的权重,利用各投影偏差的置信度对各关联图像产生的投影偏差进行加权求和。而置信度(权重)的大小取决于预估出的视觉传感器采集非指定图像时位姿的准确性以及标定的基线比预估的位姿更加准确的先验信息。
在确定各关联图像产生的投影偏差对应的置信度时,可以根据预估出的视觉传感器采集非指定图像时的位姿的误差,确定非指定图像产生的投影偏差对应的置信度,其中,误差越大,非指定图像产生的投影偏差对应的置信度越小。这样,可以减小位姿预估的精度对特征点的深度求解精度的影响。
其中,在预估视觉传感器采集非指定图像时的位姿的误差时,可以根据各非指定图像中同一特征点的像素坐标、各非指定图像之间的特征点匹配结果以及惯性传感器采集的定位数据,预估出视觉传感器采集非指定图像时的位姿的误差。其中,惯性传感器可以是IMU。预估视觉传感器采集非指定图像时的位姿的误差的算法可以是EKF滤波。误差可以协方差。
当各关联图像中存在指定图像时,可以根据非指定图像产生的投影偏差对应的置信度,确定指定图像产生的投影偏差对应的置信度,其中,指定图像产生的投影偏差对应的置信度大于非指定图像产生的投影偏差对应的置信度。也就是,认为图像之间标定的基线比预估的位姿更加准确。这样,可以有效提高确定特征点的深度的精度。
具体的,针对每次迭代优化过程,可以根据该次迭代的调整系数、非指定图像产生的投影偏差对应的置信度以及指定图像产生的投影偏差,确定指定图像产生的投影偏差对应的置信度。其中,每次迭代的调整系数可以是每次迭代的优化系数,也就是,每次迭代中总投影偏差的下降数值。
此外,在确定指定图像产生的投影偏差对应的置信度时,在指定图像产生的投影偏差对应的置信度大于非指定图像产生的投影偏差对应的置信度的前提下,还可以直接根据指定图像产生的投影偏差的大小,确定指定图像产生的投影偏差对应的置信度,其中,指定图像产生的投影偏差越大,指定图像产生的投影偏差对应的置信度越小。
针对第二种情况:
图3为本说明书实施例提供的不存在指定图像的情况下深度优化的流程示意图,包括:
S300:根据该特征点位于所述目标图像中的位置、该特征点位于所述各关联图像中的位置、采集所述目标图像时的位姿以及采集所述各关联图像时的位姿,确定所述目标图像中该特征点的初始深度。
当该特征点对应的各关联图像中不存在指定图像时,可以根据双目视觉传感器采集目标图像和各关联图像时的位姿、该特征点位于目标图像中的位置以及该特征点位于各关联图像中的位置,确定目标图像包含的该特征点的初始深度。
S302:根据该特征点的初始深度,确定将该特征点投影至所述各关联图像中所产生的投影偏差。
当各关联图像中不存在指定图像时,所有的关联图像都是非指定图像。这种情况下,可以针对该特征点对应的每个关联图像(也就是,非指定图像),可以根据该特征点的初始深度,确定该特征点处于世界坐标系下的初始位置。然后,针对每个关联图像,根据该特征点的初始位置以及预估出的视觉传感器采集该关联图像时的位姿,将该特征点投影至该关联图像中,得到投影位置。根据该关联图像中的投影位置以及该关联图像中与该特征点匹配的特征点的位置,确定该特征点投影至该关联图像中所产生的投影偏差。
S304:根据确定出的所述各关联图像产生的投影偏差对应的置信度,确定将该特征点投影至所述各关联图像中所产生的总投影偏差。
S306:以所述总投影偏差最小化为目标,对该特征点的初始深度进行优化,得到该特征点优化后的深度。
S308:根据所述目标图像包含的每个特征点优化后的深度,确定所述目标图像对应的深度图。
在本说明书实施例中,步骤S304~步骤S308与步骤S204~步骤S208相同,区别在于,当各关联图像中不存在指定图像时,可以直接根据预估出的视觉传感器采集非指定图像(关联图像)时的位姿的误差,确定非指定图像产生的投影偏差对应的置信度,其中,误差越大,非指定图像产生的投影偏差对应的置信度越小。这样,可以减小位姿预估的精度对特征点的深度求解精度的影响。
基于上述对图2和图3的说明,本说明书中提供一种特征点优化的整体流程示意图,如图4所示。
在图4中,根据关联图像中是否存在指定图像,将特征点优化分为两种情况。第一种情况各关联图像中存在指定图像,在这种情况下,根据目标图像和指定图像之间的基线信息,确定目标图像中的特征点的初始深度。然后,根据目标图像和指定图像之间标定的基线信息,将目标图像中的特征点投影到指定图像中,得到投影偏差。同时,根据目标图像与非指定图像之间的位姿变换,将目标图像中的特征点投影到非指定图像中,得到投影偏差。根据指定图像对应的置信度和非指定图像对应置信度,得到总投影偏差。最后,以总投影偏差最小化为目标,对特征点的初始深度进行优化。
第二种情况各关联图像中不存在指定图像。这种情况下,根据各关联图像与目标图像之间的位姿变换,确定目标图像中的特征点的初始深度。然后,根据目标图像与各关联图像之间的位姿变换,将目标图像中的特征点投影到各关联图像中,得到投影偏差。根据每个关联图像对应的位姿的预估误差,确定每个关联图像对应的置信度,并根据每个关联图像对应的置信度,确定特征点对应的总投影偏差。最后,以总投影偏差最小化为目标,对特征点的初始深度进行优化。
通过上述图2和图3所示的方法可见,本说明书在针对目标图像中的每个特征点,根据该特征点位于目标图像和位于各关联图像中的位置,确定该特征点的初始深度。然后,根据该特征点的初始深度以及各关联图像产生投影偏差的置信度,确定将该特征点投影到所有关联图像中所产生的总投影偏差。以总投影偏差最小化为目标,对该特征点的初始深度进行优化。在此方法中,根据不同关联图像对应的置信度,对特征点的初始深度进行优化,可以提高特征点的深度的准确性,从而提高控制无人设备的精度。
进一步的,在如图2所示的步骤S200中,在第一种情况下,由于目标图像与指定图像之间的特征点可能存在误匹配或指定图像中与该特征点匹配的特征点可能无法通过基线信息确定出该特征点比较准确的深度,所以,为了提高确定该特征点的初始深度的精度,可以根据预设的校验条件以及该特征点位于目标图像中的位置,对该特征点位于各关联图像中的位置进行验证。也就是,根据预设的校验条件,对指定图像中与该特征点对应的特征点与该特征点之间的匹配关系进行验证。其中,指定特征点是指定图像中经校验后与该特征点相匹配的特征点。
具体的验证过程:可以从指定图像中确定出与该特征点对应的特征点,作为待校验特征点。然后,根据预设的校验条件,对该特征点与待校验特征点之间的匹配关系进行验证。若验证通过,将待校验特征点作为指定特征点,并确定指定图像中存在与该特征点相匹配的指定特征点。
其中,预设的校验条件包括:
该特征点与待校验特征点之间的视差大于预设第一阈值;
根据待校验特征点确定该特征点的初始深度的条件数不大于预设第二阈值;
待检验特征点位于至少两个关联图像中;
待校验特征点位于该特征点对应的极线上或待校验特征点离该特征点对应的极线的距离小于预设第三阈值。
若该特征点与待校验特征点之间的匹配关系满足上述各校验条件,则验证通过,若该特征点与待校验特征点之间的匹配关系不满足上述各校验条件中的一个,则验证未通过。
若验证未通过,根据采集目标图像和采集各关联图像时的位姿、该特征点位于目标图像中的位置以及该特征点位于各关联图像中的位置,确定目标图像中该特征点的初始深度。
在如图2所示的步骤S202~步骤S208中,主要是对该特征点投影到各关联图像上所产生的总投影偏差进行迭代优化,也就是,对该特征点的初始深度进行优化。其中,本说明书中可以根据加权的最小二乘法,对该特征点的初始深度进行优化。
接下来,对采用最小二乘法优化该特征点的初始深度进行说明。
其中,针对每个特征点投影到每个关联图像中所得到投影偏差的最小二乘法的公式为:其中,xi为特征点i的深度,zij为特征点i处于关联图像j中的像素坐标,/>为处于世界坐标下的特征点i与视觉传感器坐标系下的关联图像j之间的旋转矩阵,/>为处于世界坐标下的特征点i与视觉传感器坐标系下的关联图像j之间的平移矩阵,/>为根据特征点i的深度、旋转矩阵、平移矩阵,将特征点i投影到关联图像j中。rij为投影偏差。另外,当关联图像中存在指定图像时,/>变换为/> 和/>表示视觉传感器坐标下包含特征点i的目标图像与指定图像j之间的旋转矩阵和平移矩阵。
然后,以rij最小化为目标,对特征点的深度进行迭代优化。在迭代优化过程中,对投影偏差进行加权求和,得到总投影偏差,并以总投影偏差最小化为目标进行优化。其中,总投影偏差涉及的优化公式为: 其中,∑-1为所有关联图像对应的置信度矩阵,即,权重。f(x)为rij。
另外,特征点的深度迭代优化的迭代公式为:△x=-[J(x)T∑-1J(x)]-1.[J(x)T∑- 1f(x)]。其中,J(x)为rij关于xi的雅可比矩阵。
根据上述迭代公式,不断迭代优化特征点的深度。
以上为本说明书实施例提供的控制无人设备的方法,基于同样的思路,本说明书还提供了相应的装置、存储介质和电子设备。
图5为本说明书实施例提供的一种控制无人设备的装置的结构示意图,所述装置包括:
获取模块501,用于获取目标图像,以及针对所述目标图像中的每个特征点,获取与该特征点对应的各关联图像;
判断模块502,用于根据视觉传感器采集所述目标图像以及所述各关联图像的采集时刻,判断所述各关联图像中是否存在与所述目标图像的采集时刻相同的指定图像;
确定模块503,用于若存在,根据该特征点位于所述目标图像中的位置、该特征点位于所述指定图像中的位置,以及所述目标图像与所述指定图像之间标定的基线信息,确定所述目标图像对应的深度图;若不存在,根据该特征点位于所述目标图像中的位置、该特征点位于所述各关联图像中的位置、采集所述目标图像时的位姿以及采集所述各关联图像时的位姿,确定所述目标图像对应的深度图;
控制模块504,用于基于所述目标图像对应的深度图,对无人设备进行控制。
所述确定模块503包括:第一确定子模块601、第二确定子模块602、第三确定子模块603、优化模块604、第四确定子模块605;
图6为本说明书实施例提供的一种深度优化的装置的结构示意图,所述装置包括:
第一确定子模块601,用于根据该特征点位于所述目标图像中的位置、该特征点位于所述指定图像中的位置,以及所述目标图像与所述指定图像之间标定的基线信息,确定所述目标图像中该特征点的初始深度;
第二确定子模块602,用于根据该特征点的初始深度,确定将该特征点投影至所述各关联图像中所产生的投影偏差;
第三确定子模块603,用于根据确定出的所述各关联图像产生的投影偏差对应的置信度,确定将该特征点投影至所述各关联图像中所产生的总投影偏差;
优化模块604,用于以所述总投影偏差最小化为目标,对该特征点的初始深度进行优化,得到该特征点优化后的深度;
第四确定子模块605,用于根据所述目标图像包含的每个特征点优化后的深度,确定所述目标图像对应的深度图。
可选地,所述第一确定子模块601具体用于,根据预设的校验条件以及该特征点位于所述目标图像中的位置,对该特征点位于所述指定图像中的位置进行验证;若验证通过,根据所述目标图像与所述指定图像之间标定的基线信息,以及该特征点位于所述目标图像中的位置和该特征点位于所述指定图像中的位置之间的视差,确定所述目标图像中该特征点的初始深度。
可选地,所述第一确定子模块601还用于,若验证未通过,根据所述视觉传感器采集所述目标图像和所述各关联图像时的位姿、该特征点位于所述目标图像中的位置以及该特征点位于所述各关联图像中的位置,确定所述目标图像中该特征点的初始深度。
可选地,所述第二确定子模块602具体用于,从所述各关联图像中确定出与所述目标图像采集时刻不同的各图像作为各非指定图像;根据该特征点的初始深度以及所述目标图像与所述指定图像之间标定的基线信息,确定将该特征点投影至所述指定图像中所产生的投影偏差;根据该特征点的初始深度以及预估出的视觉传感器采集所述各非指定图像时的位姿,确定将该特征点投影至所述各非指定图像中所产生的投影偏差。
可选地,所述第二确定子模块602具体用于,根据该特征点位于所述目标图像中的位置、该特征点的初始深度以及所述目标图像与所述指定图像之间标定的基线信息,将该特征点投影至所述指定图像中,得到投影位置;根据所述投影位置以及所述指定图像中与该特征点匹配的特征点的位置,确定将该特征点投影至所述指定图像中所产生的投影偏差。
可选地,所述第二确定子模块602具体用于,根据该特征点的初始深度,确定该特征点处于世界坐标系下的初始位置;针对每个非指定图像,根据该特征点的初始位置以及预估出的视觉传感器采集该非指定图像时的位姿,将该特征点投影至该非指定图像中,得到投影位置;根据该非指定图像中的投影位置以及该非指定图像中与该特征点匹配的特征点的位置,确定该特征点投影至该非指定图像中所产生的投影偏差。
可选地,所述第三确定子模块603具体用于,根据预估出的视觉传感器采集所述非指定图像时的位姿的误差,确定所述非指定图像产生的投影偏差对应的置信度,其中,所述误差越大,所述非指定图像产生的投影偏差对应的置信度越小;根据所述非指定图像产生的投影偏差对应的置信度,确定所述指定图像产生的投影偏差对应的置信度,其中,所述指定图像产生的投影偏差对应的置信度大于所述非指定图像产生的投影偏差对应的置信度。
可选地,所述优化模块604具体用于,对该特征点的初始深度进行迭代优化。
可选地,所述第三确定子模块603具体用于,针对每次迭代,根据该次迭代的调整系数、所述非指定图像产生的投影偏差对应的置信度以及所述指定图像产生的投影偏差,确定所述指定图像产生的投影偏差对应的置信度。
本说明书还提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时可用于执行上述图1提供的控制无人设备的方法。
基于图1所示的控制无人设备的方法,本说明书实施例还提供了图7所示的电子设备的结构示意图。如图7,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图7所述的控制无人设备的方法。
当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (12)
1.一种控制无人设备的方法,其特征在于,包括:
获取目标图像,以及针对所述目标图像中的每个特征点,获取与该特征点对应的各关联图像;
根据视觉传感器采集所述目标图像以及所述各关联图像的采集时刻,判断所述各关联图像中是否存在与所述目标图像的采集时刻相同的指定图像;
若存在,根据该特征点位于所述目标图像中的位置、该特征点位于所述指定图像中的位置,以及所述目标图像与所述指定图像之间标定的基线信息,确定所述目标图像对应的深度图;若不存在,根据该特征点位于所述目标图像中的位置、该特征点位于所述各关联图像中的位置、采集所述目标图像时的位姿以及采集所述各关联图像时的位姿,确定所述目标图像对应的深度图;
基于所述目标图像对应的深度图,对无人设备进行控制。
2.如权利要求1所述的方法,其特征在于,根据该特征点位于所述目标图像中的位置、该特征点位于所述指定图像中的位置,以及所述目标图像与所述指定图像之间标定的基线信息,确定所述目标图像对应的深度图,具体包括:
根据该特征点位于所述目标图像中的位置、该特征点位于所述指定图像中的位置,以及所述目标图像与所述指定图像之间标定的基线信息,确定所述目标图像中该特征点的初始深度;
根据该特征点的初始深度,确定将该特征点投影至所述各关联图像中所产生的投影偏差;
根据确定出的所述各关联图像产生的投影偏差对应的置信度,确定将该特征点投影至所述各关联图像中所产生的总投影偏差;
以所述总投影偏差最小化为目标,对该特征点的初始深度进行优化,得到该特征点优化后的深度;
根据所述目标图像包含的每个特征点优化后的深度,确定所述目标图像对应的深度图。
3.如权利要求2所述的方法,其特征在于,根据该特征点位于所述目标图像中的位置以及该特征点位于所述各关联图像中的位置,确定所述目标图像中该特征点的初始深度,具体包括:
根据预设的校验条件以及该特征点位于所述目标图像中的位置,对该特征点位于所述指定图像中的位置进行验证;
若验证通过,根据所述目标图像与所述指定图像之间标定的基线信息,以及该特征点位于所述目标图像中的位置和该特征点位于所述指定图像中的位置之间的视差,确定所述目标图像中该特征点的初始深度。
4.如权利要求3所述的方法,其特征在于,所述方法还包括:
若验证未通过,根据采集所述目标图像和采集所述各关联图像时的位姿、该特征点位于所述目标图像中的位置以及该特征点位于所述各关联图像中的位置,确定所述目标图像中该特征点的初始深度。
5.如权利要求2所述的方法,其特征在于,根据该特征点的初始深度,确定将该特征点投影至所述各关联图像中所产生的投影偏差,具体包括:
从所述各关联图像中确定出与所述目标图像采集时刻不同的各图像作为各非指定图像;
根据该特征点的初始深度以及所述目标图像与所述指定图像之间标定的基线信息,确定将该特征点投影至所述指定图像中所产生的投影偏差;
根据该特征点的初始深度以及预估出的视觉传感器采集所述各非指定图像时的位姿,确定将该特征点投影至所述各非指定图像中所产生的投影偏差。
6.如权利要求5所述的方法,其特征在于,根据该特征点的初始深度以及所述目标图像与所述指定图像之间标定的基线信息,确定将该特征点投影至所述指定图像中所产生的投影偏差,具体包括:
根据该特征点位于所述目标图像中的位置、该特征点的初始深度以及所述目标图像与所述指定图像之间标定的基线信息,将该特征点投影至所述指定图像中,得到投影位置;
根据所述投影位置以及所述指定图像中与该特征点匹配的特征点的位置,确定将该特征点投影至所述指定图像中所产生的投影偏差。
7.如权利要求5所述的方法,其特征在于,根据该特征点的初始深度以及预估出的视觉传感器采集所述各非指定图像时的位姿,确定将该特征点投影至所述各非指定图像中所产生的投影偏差,具体包括:
根据该特征点的初始深度,确定该特征点处于世界坐标系下的初始位置;
针对每个非指定图像,根据该特征点的初始位置以及预估出的视觉传感器采集该非指定图像时的位姿,将该特征点投影至该非指定图像中,得到投影位置;
根据该非指定图像中的投影位置以及该非指定图像中与该特征点匹配的特征点的位置,确定该特征点投影至该非指定图像中所产生的投影偏差。
8.如权利要求5所述的方法,其特征在于,确定所述各关联图像产生的投影偏差对应的置信度,具体包括:
根据预估出的视觉传感器采集所述非指定图像时的位姿的误差,确定所述非指定图像产生的投影偏差对应的置信度,其中,所述误差越大,所述非指定图像产生的投影偏差对应的置信度越小;
根据所述非指定图像产生的投影偏差对应的置信度,确定所述指定图像产生的投影偏差对应的置信度,其中,所述指定图像产生的投影偏差对应的置信度大于所述非指定图像产生的投影偏差对应的置信度。
9.如权利要求8所述的方法,其特征在于,对该特征点的初始深度进行优化,具体包括:
对该特征点的初始深度进行迭代优化;
根据所述非指定图像产生的投影偏差对应的置信度,确定所述指定图像产生的投影偏差对应的置信度,具体包括:
针对每次迭代,根据该次迭代的调整系数、所述非指定图像产生的投影偏差对应的置信度以及所述指定图像产生的投影偏差,确定所述指定图像产生的投影偏差对应的置信度。
10.一种控制无人设备的装置,其特征在于,包括:
获取模块,用于获取目标图像,以及针对所述目标图像中的每个特征点,获取与该特征点对应的各关联图像;
判断模块,用于根据视觉传感器采集所述目标图像以及所述各关联图像的采集时刻,判断所述各关联图像中是否存在与所述目标图像的采集时刻相同的指定图像;
确定模块,用于若存在,根据该特征点位于所述目标图像中的位置、该特征点位于所述指定图像中的位置,以及所述目标图像与所述指定图像之间标定的基线信息,确定所述目标图像对应的深度图;若不存在,根据该特征点位于所述目标图像中的位置、该特征点位于所述各关联图像中的位置、采集所述目标图像时的位姿以及采集所述各关联图像时的位姿,确定所述目标图像对应的深度图;
控制模块,用于基于所述目标图像对应的深度图,对无人设备进行控制。
11.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1-9任一项所述的方法。
12.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1-9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210142083.2A CN116665032A (zh) | 2022-02-16 | 2022-02-16 | 一种控制无人设备的方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210142083.2A CN116665032A (zh) | 2022-02-16 | 2022-02-16 | 一种控制无人设备的方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116665032A true CN116665032A (zh) | 2023-08-29 |
Family
ID=87712287
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210142083.2A Pending CN116665032A (zh) | 2022-02-16 | 2022-02-16 | 一种控制无人设备的方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116665032A (zh) |
-
2022
- 2022-02-16 CN CN202210142083.2A patent/CN116665032A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112001456B (zh) | 一种车辆定位方法、装置、存储介质及电子设备 | |
CN111238450B (zh) | 视觉定位方法及装置 | |
CN111797906B (zh) | 基于视觉和惯性里程定位的方法及装置 | |
CN116309823A (zh) | 一种位姿的确定方法、装置、设备及存储介质 | |
CN113674424B (zh) | 一种电子地图绘制的方法及装置 | |
CN112861831A (zh) | 一种目标物的识别方法、装置、存储介质及电子设备 | |
CN116665032A (zh) | 一种控制无人设备的方法、装置及电子设备 | |
CN114494381A (zh) | 模型训练及深度估计方法、装置、存储介质及电子设备 | |
CN112734851B (zh) | 一种位姿确定的方法以及装置 | |
CN113048989B (zh) | 一种无人驾驶设备的定位方法及定位装置 | |
CN111798489B (zh) | 一种特征点跟踪方法、设备、介质及无人设备 | |
CN116929407A (zh) | 一种自适应数据校准方法及装置 | |
CN112712561A (zh) | 一种建图方法、装置、存储介质及电子设备 | |
CN114332189A (zh) | 一种高精地图构建方法、装置、存储介质及电子设备 | |
CN116300842A (zh) | 一种无人设备控制方法、装置、存储介质及电子设备 | |
CN116558504B (zh) | 一种单目视觉的定位方法及装置 | |
CN117635708A (zh) | 一种位姿估计方法、装置、存储介质及电子设备 | |
CN112393723B (zh) | 一种定位方法、设备、介质及无人设备 | |
CN116740197B (zh) | 一种外参的标定方法、装置、存储介质及电子设备 | |
CN117226853B (zh) | 一种机器人运动学标定的方法、装置、存储介质、设备 | |
CN113888624B (zh) | 一种构建地图的方法及装置 | |
CN116051616A (zh) | 一种深度测量方法、装置、存储介质及电子设备 | |
CN116563387A (zh) | 一种标定模型的训练方法、装置、存储介质以及电子设备 | |
CN115690231A (zh) | 一种基于多目视觉的定位方法 | |
CN114332226A (zh) | 一种位姿优化方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |