CN115471731B - 图像处理方法、装置、存储介质及设备 - Google Patents
图像处理方法、装置、存储介质及设备 Download PDFInfo
- Publication number
- CN115471731B CN115471731B CN202211014186.7A CN202211014186A CN115471731B CN 115471731 B CN115471731 B CN 115471731B CN 202211014186 A CN202211014186 A CN 202211014186A CN 115471731 B CN115471731 B CN 115471731B
- Authority
- CN
- China
- Prior art keywords
- target
- image
- observation
- semantic
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 32
- 238000009826 distribution Methods 0.000 claims abstract description 264
- 238000000034 method Methods 0.000 claims abstract description 70
- 230000008447 perception Effects 0.000 claims abstract description 63
- 238000012545 processing Methods 0.000 claims abstract description 19
- 230000008569 process Effects 0.000 claims description 43
- 238000004590 computer program Methods 0.000 claims description 29
- 230000009471 action Effects 0.000 claims description 24
- 230000007774 longterm Effects 0.000 claims description 23
- 238000005070 sampling Methods 0.000 claims description 14
- 230000033001 locomotion Effects 0.000 claims description 12
- 230000004931 aggregating effect Effects 0.000 claims 1
- 238000002372 labelling Methods 0.000 abstract description 2
- 238000012549 training Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 6
- 102100031315 AP-2 complex subunit mu Human genes 0.000 description 5
- 101000796047 Homo sapiens AP-2 complex subunit mu Proteins 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000004382 potting Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000007599 discharging Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请公开一种图像处理方法、装置、存储介质及设备,该方法包括:获取目标机器人在目标观察空间内采集的观测信息,观测信息包括观测图像、深度图像和传感器位姿信息;根据观测信息获取三维语义分布图;根据三维语义分布图,基于语义分布不一致性和类分布不确定性的条件,学习目标机器人的探索策略,并根据探索策略确定目标机器人的探索轨迹;基于语义分布不一致性与类分布不确定性中的至少一种条件,从探索轨迹对应的目标观测图像中获取难样本图像;根据难样本图像调整目标机器人的感知模型,降低了标注成本,提升感知模型的感知准确性。
Description
技术领域
本申请涉及机器人感知技术领域,具体涉及一种图像处理方法、装置、存储介质及设备。
背景技术
随着感知模型在机器人领域的广泛应用,如何有效地将感知模型推广到真实的三维环境的研究,已成为重要的研究课题。其中,训练机器人的感知模型与传统计算机视觉中基于从互联网上收集的图片训练静态感知模型存在以下不同点:(1)用于训练的图片数据不是从互联网上收集的固定数据集,而是需要在虚拟或真实的三维(3D)空间中移动来进行收集的;(2)静态感知模型是将每一个训练样本单独处理,机器人的感知模型是机器人在空间的移动过程中从不同的视角对同一个物体进行观测;(3)如何有效地学习探索策略和收集训练样本的方法,是机器人的感知模型的训练任务的关键之处。
发明内容
本申请实施例提供一种图像处理方法、装置、存储介质、设备及程序产品,可以基于三维语义分布图来衡量语义分布差异,并结合语义分布不一致性和类分布不确定性来学习探索轨迹,以关注同一个视角预测的类分布不确定性以及关注不同视角预测的语义分布不一致性,并突出难样本图像的重要性,最终基于标注的难样本图像微调感知模型,降低了标注成本,提升了感知模型的感知准确性。
一方面,本申请实施例提供一种图像处理方法,所述方法包括:获取目标机器人在目标观察空间内采集的观测信息,所述观测信息包括观测图像、深度图像和传感器位姿信息;根据所述观测信息,获取三维语义分布图;根据所述三维语义分布图,基于语义分布不一致性和类分布不确定性的条件,学习所述目标机器人的探索策略;根据所述探索策略移动所述目标机器人,以得到所述目标机器人的探索轨迹,所述探索轨迹包括所述目标机器人在所述目标观察空间内移动的过程中采集的目标观测图像;基于所述语义分布不一致性与所述类分布不确定性中的至少一种条件,从所述探索轨迹对应的目标观测图像中获取难样本图像,所述难样本图像用于表征预测的语义分布结果不一致和/或预测的类分布结果不确定的图像;根据所述难样本图像调整所述目标机器人的感知模型。
在一些实施例中,所述语义分布不一致性表示所述目标机器人在移动过程中从不同视角观测同一个目标对象时,得到不一致的预测分布结果;所述类分布不确定性表示所述目标机器人在移动过程中从同一个视角观测同一个目标对象时,将所述目标对象的类别预测为多个类别、且所述多个类别中有两个类别得到的预测类别概率相近且均大于第一预设阈值的情况。
在一些实施例中,所述根据所述三维语义分布图,所述观测图像包括第一观测图像和第二观测图像,所述第一目标观测图像为从不同视角观测同一个目标对象时采集的观测图像,所述第二目标观测图像为从同一个视角观测同一个目标对象时采集的观测图像;所述根据所述三维语义分布图,基于语义分布不一致性和类分布不确定性的条件,学习所述目标机器人的探索策略,包括:根据所述第一观测图像,获取所述目标机器人移动过程中从不同视角观测同一个目标对象时的当前预测结果,并基于所述当前预测结果与所述三维语义分布图,计算第一语义分布不一致性奖励;获取所述第二观测图像中所有目标对象的第一预测类别概率,并基于所述所有目标对象的第一预测类别概率,计算第一类分布不确定性奖励;根据所述第一语义分布不一致性奖励与所述第一类分布不确定性奖励,学习所述目标机器人的探索策略。
在一些实施例中,所述探索轨迹对应的目标观测图像包括第一目标观测图像和第二目标观测图像,所述第一目标观测图像为从不同视角观测同一个目标对象时采集的观测图像,所述第二目标观测图像为从同一个视角观测同一个目标对象时采集的观测图像;所述基于所述语义分布不一致性与所述类分布不确定性中的至少一种条件,从所述探索轨迹对应的目标观测图像中获取难样本图像,包括:
基于所述语义分布不一致性的条件,从所述探索轨迹对应的第一目标观测图像中获取第一难样本图像,所述第一难样本图像用于表征预测的语义分布结果不一致的图像;和/或
基于所述类分布不确定性的条件,从所述探索轨迹对应的第二目标观测图像中获取第二难样本图像,所述第二难样本图像用于表征预测的类分布结果不确定的图像。
在一些实施例中,所述基于所述类分布不确定性的条件,从所述探索轨迹对应的第二目标观测图像中获取第二难样本图像,包括:获取所述探索轨迹对应的第二目标观测图像;计算所述探索轨迹对应的第二目标观测图像中所有目标对象的第二预测类别概率;基于所述第二目标观测图像中所有目标对象的第二预测类别概率,计算第二类分布不确定性;将所述探索轨迹对应的第二目标观测图像中所述第二类分布不确定性大于第一预设阈值对应的图像确定为第二难样本图像。
在一些实施例中,所述基于所述语义分布不一致性的条件,从所述探索轨迹对应的第一目标观测图像中获取第一难样本图像,包括:获取所述探索轨迹对应的第一目标观测图像;根据所述第一目标观测图像,获取所述目标机器人移动过程中从不同视角观测同一个目标对象时的目标预测结果,并基于所述目标预测结果与所述三维语义分布图,计算第二语义分布不一致性;将所述第一目标观测图像中所述第二语义分布不一致性大于第二预设阈值对于的图像确定为第一难样本图像。
在一些实施例中,所述根据所述探索策略移动所述目标机器人,以得到所述目标机器人的探索轨迹,包括:根据所述探索策略以及所述目标机器人在当前时刻ti采集到的目标观测信息,确定所述目标机器人在下一时刻ti+1的行进方向,其中,所述行进方向用于指示所述目标机器人在下一时刻ti+1的应该移动的方向,所述目标观测信息包括目标观测图像、目标深度图像和目标传感器位姿信息,i≥0;控制所述目标机器人基于所述行进方向执行移动操作,以得到所述目标机器人的探索轨迹,以及所述探索轨迹上每个时间步的目标观测图像。
在一些实施例中,所述根据所述观测信息,获取三维语义分布图,包括:将所述观测图像输入预训练的感知模型,得到所述观测图像的语义类别预测结果,所述语义类别预测结果用于表征所述观测图像中每个像素在C个类别之间的预测概率分布,所述C表示预测的目标对象的种类数;基于所述深度图像建立所述目标观察空间对应的点云,其中,所述点云中的每个点对应相应的所述语义类别预测结果;基于所述传感器位姿信息,将所述点云转换到三维空间来获取体素表示;基于指数移动平均公式来聚合随着时间变化的同一位置的所述体素表示,以得到所述三维语义分布图。
在一些实施例中,所述根据所述难样本图像调整所述目标机器人的感知模型,包括:获取所述难样本图像以及所述难样本图像的语义标注信息,其中,所述语义标注信息包括每一所述难样本图像中所有目标对象的边界框、每个所述目标对象对应的像素以及每个所述目标对象所属的类别;将所述难样本图像输入所述预训练的感知模型,得到所述难样本图像对应的语义类别预测结果;基于所述难样本图像对应的语义类别预测结果与所述语义标注信息,调整所述预训练的感知模型的参数,以得到调整后的感知模型。
在一些实施例中,在所述学习所述目标机器人的探索策略之前,还包括:将所述三维语义分布图输入全局策略网络中选择长期目标,所述长期目标为所述三维语义分布图中的x-y坐标;将所述长期目标输入局部策略网络进行路径规划,得到所述目标机器人的预测离散动作,所述预测离散动作包括前移、左转和左转中的至少一种;基于预设个数的局部步长对所述长期目标进行采样,得到采样数据,所述采样数据用于学习所述目标机器人的离散动作。
在一些实施例中,所述获取目标机器人在目标观察空间内采集的观测信息,包括:基于所述目标机器人的拍摄装置获取预设时间段内每个时间步长对应的观测图像和深度图像,其中,所述观测图像为彩色图像,所述深度图像为将所述拍摄装置采集到的目标观察空间中各点的距离值作为像素值的图像;基于所述目标机器人的传感器获取预设时间段内每个时间步长对应的传感器位姿信息,所述传感器位姿信息至少包括三自由度的位姿信息。
另一方面,本申请实施例提供一种图像处理装置,所述装置包括:
第一获取单元,用于获取目标机器人在目标观察空间内采集的观测信息,所述观测信息包括观测图像、深度图像和传感器位姿信息;
第二获取单元,用于根据所述观测信息,获取三维语义分布图;
学习单元,用于根据所述三维语义分布图,基于语义分布不一致性和类分布不确定性的条件,学习所述目标机器人的探索策略;
确定单元,用于根据所述探索策略移动所述目标机器人,以得到所述目标机器人的探索轨迹,所述探索轨迹包括所述目标机器人在所述目标观察空间内移动的过程中采集的目标观测图像;
第三获取单元,用于基于所述语义分布不一致性与所述类分布不确定性中的至少一种条件,从所述探索轨迹对应的目标观测图像中获取难样本图像,所述难样本图像用于表征预测的语义分布结果不一致和/或预测的类分布结果不确定的图像;
调整单元,用于根据所述难样本图像调整所述目标机器人的感知模型。
另一方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序适于处理器进行加载,以执行如上任一实施例所述的图像处理方法。
另一方面,本申请实施例提供一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述处理器通过调用所述存储器中存储的所述计算机程序,用于执行如上任一实施例所述的图像处理方法。
另一方面,本申请实施例提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上任一实施例所述的图像处理方法。
本申请实施例通过获取目标机器人在目标观察空间内采集的观测信息,观测信息包括观测图像、深度图像和传感器位姿信息;根据观测信息,获取三维语义分布图;根据三维语义分布图,基于语义分布不一致性和类分布不确定性的条件,学习目标机器人的探索策略;根据探索策略移动目标机器人,以得到目标机器人的探索轨迹,探索轨迹包括目标机器人在目标观察空间内移动的过程中采集的目标观测图像;基于语义分布不一致性与类分布不确定性中的至少一种条件,从探索轨迹对应的目标观测图像中获取难样本图像,难样本图像用于表征预测的语义分布结果不一致和/或预测的类分布结果不确定的图像;根据难样本图像调整目标机器人的感知模型。本申请实施例通过利用三维语义分布图以自监督的方式通过语义分布不一致性和类分布不确定性来学习探索轨迹,并利用语义分布不一致性与类分布不确定性中的至少一种条件来收集学习到的探索轨迹上的难样本图像,在对收集到的难样本图像进行语义标注后,基于标注的难样本图像微调感知模型,基于三维语义分布图来衡量语义分布差异,并结合语义分布不一致性和类分布不确定性来学习探索轨迹,以关注同一个视角预测的类分布不确定性以及关注不同视角预测的语义分布不一致性,并突出难样本图像的重要性,最终基于标注的难样本图像微调感知模型,降低了标注成本,提升了感知模型的感知准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的图像处理方法的流程示意图。
图2为本申请实施例提供的图像处理方法的应用场景示意图。
图3为本申请实施例提供的图像处理装置的结构示意图。
图4为本申请实施例提供的计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供一种图像处理方法、装置、计算机可读存储介质、计算机设备及计算机程序产品。具体地,本申请实施例的图像处理方法,,可以直接应用于机器人中,也可以应用于服务器中,还可以应用于包括终端和服务器的系统,并通过终端和服务器的交互实现。其中,本申请实施例中的机器人指的是需要进行空间移动的机器人,需要获取目标机器人在目标观察空间内采集的观测信息,观测信息包括观测图像、深度图像和传感器位姿信息,并根据观测信息获取三维语义分布图,然后根据三维语义分布图,并基于语义分布不一致性和类分布不确定性的条件,学习目标机器人的探索轨迹,然后基于类分布不确定性的条件,从探索轨迹对应的目标观测图像中获取难样本图像,该难样本图像用于表征预测的类分布结果不确定的图像,并根据难样本图像调整机器人的感知模型。本实施例对机器人的具体类型以及型号不做限定。服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
以下分别进行详细说明。需说明的是,以下实施例的描述顺序不作为对实施例优先顺序的限定。
本申请各实施例提供了一种图像处理方法,该方法可以由机器人或服务器执行,也可以由机器人和服务器共同执行;本申请实施例以图像处理方法由机器人(计算机设备)执行为例来进行说明。
请参阅图1至图2,图1为本申请实施例提供的图像处理方法的流程示意图,图2为本申请实施例提供的应用场景示意图。该方法通过如下步骤110至步骤150实现,具体包括:
步骤110,获取目标机器人在目标观察空间内采集的观测信息,所述观测信息包括观测图像、深度图像和传感器位姿信息。
具体的,获取目标机器人在目标观察空间内移动过程中采集的观测信息,所述观测信息包括观测图像、深度图像和传感器位姿信息。
例如,目标观察空间,可以为与目标机器人的应用的真实环境比较接近的观察空间。比如,目标机器人为移动机器人,按照应用场景区别,若目标机器人为家用机器人(如扫地机器人),则目标观察空间为室内家居环境或室内办公环境。比如,若目标机器人为物流机器人(如货物搬运机器人),则目标观察空间为具有物流通道的真实环境。
例如,在每个时间步长中,目标机器人在目标观察空间内采集的观测信息包含一个RGB观测图像一个深度图像/>和一个三自由度传感器姿态xt∈R3。其中,三自由度传感器姿态用于表示x-y坐标和机器人方向。
其中,机器人具有三个离散动作:前移、左转和右转。这三个离散动作可以与x-y坐标加上机器人方向相对应,比如在当前机器人朝向为前移时,根据机器人移动一步的距离可以算出移动后的坐标和机器人方向,例如,若当前机器人朝向为前移时,则机器人方向不变。
在一些实施例中,所述获取目标机器人在目标观察空间内采集的观测信息,包括:
基于所述目标机器人的拍摄装置获取预设时间段内每个时间步长对应的观测图像和深度图像,其中,所述观测图像为彩色图像,所述深度图像为将所述拍摄装置采集到的目标观察空间中各点的距离值作为像素值的图像;
基于所述目标机器人的传感器获取预设时间段内每个时间步长对应的传感器位姿信息,所述传感器位姿信息至少包括三自由度的位姿信息。
例如,该拍摄装置可以为搭载于目标机器人上的用于获取周围环境图像的装置,拍摄装置连续拍摄以获取连续帧的周围环境图像,该周围环境图像可以包含RGB观测图像和深度图像。例如,该拍摄装置可以是RGBD相机,RGBD相机是基于结构光技术的相机,一般会有两个摄像头,一个RGB摄像头采集RGB观测图像,一个IR摄像头采集红外图像,该红外图像可以作为深度图像。
例如,可以基于搭载于目标机器人上的三自由度传感器获取三自由度的位姿信息。
步骤120,根据所述观测信息,获取三维语义分布图。
在一些实施例中,所述根据所述观测信息,获取三维语义分布图,包括:
将所述观测图像输入预训练的感知模型,得到所述观测图像的语义类别预测结果,所述语义类别预测结果用于表征所述观测图像中每个像素在C个类别之间的预测概率分布,所述C表示预测的目标对象的种类数;
基于所述深度图像建立所述目标观察空间对应的点云,其中,所述点云中的每个点对应相应的所述语义类别预测结果;
基于所述传感器位姿信息,将所述点云转换到三维空间来获取体素表示;
基于指数移动平均公式来聚合随着时间变化的同一位置的所述体素表示,以得到所述三维语义分布图。
本申请实施例可以使用三维(3D)语义分布图去融合目标机器人移动过程中不同帧的语义预测。如图2所示,图2左侧显示了一个时间步长的语义映射过程。
首先,对于观测到的观测图像It,使用预训练的感知模型(例如:Mask RCNN)进行语义预测来预测出观测图像中观测到的对象的语义类别,以得到得到观测图像的语义类别预测结果,其中,语义类别预测结果是观测图像中每个像素在C个类别之间的预测概率分布。
例如,该预训练的感知模型可以采用Mask R-CNN模型。Mask R-CNN是一个实例分割(Instance segmentation)算法,主要是在目标检测的基础上再进行分割。例如,将观测图像输入预训练的感知模型,得到的观测图像的语义类别预测结果包括观测图像中所有目标对象的边界框(bounding box)、每个目标对象对应的像素(segmentation mask)以及每个目标对象所属的类别。比如目标对象可以为目标观察空间中待观察的物体,比如观测图像中所有目标对象可以包括椅子、沙发、盆栽、床、卫生间和电视,则每个目标对象对应的像素(segmentation mask)即为:观测图像中哪些像素属于椅子、观测图像中哪些像素属于沙发、观测图像中哪些像素属于盆栽、观测图像中哪些像素属于床、观测图像中哪些像素属于卫生间、观测图像中哪些像素属于电视。
然后,使用深度图像Dt通过数学变换计算点云,其中,点云中的每个点都对应相应的语义类别预测结果。
深度图像:也叫距离影像,是指将从图像采集器(摄像装置)到场景(目标观察空间)中各点的距离(深度)值作为像素值的图像。获取深度图像的方法有:激光雷达深度成像法、计算机立体视觉成像、坐标测量机法、莫尔条纹法、结构光法等。
点云:当一束激光照射到物体表面时,所反射的激光会携带方位、距离等信息。若将激光束按照某种轨迹进行扫描,便会边扫描边记录到反射的激光点信息,由于扫描极为精细,则能够得到大量的激光点,因而就可形成激光点云。点云格式有*.las;*.pcd;*.txt等。
深度图像经过坐标转换可以计算为点云数据;有规则及必要信息的点云数据也可以反算为深度图像。
在一些实施例中,深度图像转为点云,可以是坐标系的变换:将图像坐标系转换为世界坐标系。变换的约束条件就是相机内参,变换公式如下:
其中(x,y,z)是点云坐标系,(x’,y’)是图像坐标系,D为深度值。
其中,相机内参为一般是4个:fx、fy、u0、v0;其中,fx=F/dx,fy=F/dy;其中,F表示焦距的长度;dx和dy表示:x方向和y方向的一个像素分别占多少长度单位,即一个像素代表的实际物理值的大小,dx和dy是实现图像物理坐标系与像素坐标系转换的关键;u0和v0表示:图像的中心像素坐标和图像原点像素坐标之间相差的横向和纵向像素数。理论值应该是图像宽度、高度的一半,越好的摄像头,u0和v0越接近于分辨率的一半。
例如,在进行上述转换之前可以对(x’,y’)进行畸变矫正函数undistort运算,以进行畸变的矫正。相机成像的过程实际就是将世界坐标系的点,转换到相机坐标系,投影得到图像坐标系,进而转化为像素坐标系的过程。而由于透镜精度和工艺会引入畸变(所谓畸变,就是指在世界坐标系中的直线转化到其他坐标系不在是直线),从而导致失真,为了解决这个问题,从而引入了相机畸变校正模型。
然后,基于传感器位姿信息的可微几何变换,将点云转换到3D空间来获得体素表示其中,L、W、H分别表示长、宽、高。
例如,用于构建点云的多个深度图像,可能是目标机器人基于不同的视角采集到的深度图像,因此,该点云的坐标系可能跟目标观察空间(3D空间)的坐标系是不一样的,比如该目标观察空间的参考坐标系可以用世界坐标系(笛卡尔坐标系)表示。因此,需要将通过深度图像得到的点云转换到目标观察空间的参考坐标系中。其中,传感器位姿信息可以包括位置与姿态,对应位移与旋转。通常有两个坐标系,一个是用于参考的世界坐标系(笛卡尔坐标系),一个是以刚体(比如机器人)质心为原点的刚体坐标系,映射表示的是同一点在不同坐标系之间的坐标转换。其中,映射包括平移和旋转,平移与刚体坐标系原点的位置相关,旋转与刚体坐标系的姿态相关。在本申请实施例中,可以基于传感器位姿信息的可微几何变换来确定点云对应的刚体坐标系,并将刚体坐标系转换为世界坐标系,以得到体素表示。
随后,使用指数移动平均公式来聚合随着时间变化同一位置的体素表示来得到3D语义分布图Mt:
Mt=Mt-1,t=1;
Mt=λ*Mt-1+(1-λ)*mt,t>1;
其中,3D语义分布图在开始时用全零初始化。λ是一个超参数,用于控制当前预测的体素表示mt与上一步得到的3D语义分布图Mt-1的比例,比如λ可以设为0.3。
步骤130,根据所述三维语义分布图,基于语义分布不一致性和类分布不确定性的条件,学习所述目标机器人的探索策略。
例如,3D语义分布图可以用来计算语义分布不一致性奖励。
在一些实施例中,所述语义分布不一致性表示所述目标机器人在移动过程中从不同视角观测同一个目标对象时,得到不一致的预测分布结果;
所述类分布不确定性表示所述目标机器人在移动过程中从同一个视角观测同一个目标对象时,将所述目标对象的类别预测为多个类别、且所述多个类别中有两个类别得到的预测类别概率相近且均大于第一预设阈值的情况。
例如,类别可以划分为椅子(chair)、沙发(couch)、盆栽(potted)、床(bed)、卫生间(toilet)、电视(Tv)这6个类别。
例如,目标对象以电视为例,对于语义分布不一致性,从不同视角观察该目标对象时,比如从正面观测该目标对象时:预测为电视的概率是0.6,预测为椅子的概率是0.2,预测为沙发的概率是0.1,预测为盆栽的概率是0.05,预测为床的概率是0.02,预测为卫生间的概率是0.03;比如从侧面观测该目标对象时:预测为电视的概率是0.2,预测为椅子的概率是0.1,预测为沙发的概率是0.5,预测为盆栽的概率是0.15,预测为床的概率是0.02,预测为卫生间的概率是0.03;由此可知,从正面观测该目标对象时预测为电视的概率与从侧面观测该目标对象时预测为电视的概率存在语义分布不一致性。
例如,目标对象以电视为例,第一预设阈值为0.3,对于类分布不确定性,从同一个视角观察同该目标对象时:预测为电视的概率是0.4,预测为椅子的概率是0.35,预测为沙发的概率是0.15,预测为盆栽的概率是0.05,预测为床的概率是0.02,预测为卫生间的概率是0.03;由此可知,预测为电视的概率(0.4)与预测为椅子的概率(0.35)比较相近,且预测为电视的概率(0.4)大于第一预设阈值(0.3),预测为椅子的概率(0.35)大于第一预设阈值(0.3),说明预测分布结果中有预测为两个类别(电视和椅子)的概率较大且比较接近,则确定预测分布结果中存在类分布不确定性。
在一些实施例中,所述观测图像包括第一观测图像和第二观测图像,所述第一目标观测图像为从不同视角观测同一个目标对象时采集的观测图像,所述第二目标观测图像为从同一个视角观测同一个目标对象时采集的观测图像;所述根据所述三维语义分布图,基于语义分布不一致性和类分布不确定性的条件,学习所述目标机器人的探索策略,包括:
根据所述第一观测图像,获取所述目标机器人移动过程中从不同视角观测同一个目标对象时的当前预测结果,并基于所述当前预测结果与所述三维语义分布图,计算语义分布不一致性奖励;
获取所述第二观测图像中所有目标对象的第一预测类别概率,并基于所述所有目标对象的第一预测类别概率,计算第一类分布不确定性奖励;
根据所述第一语义分布不一致性奖励与所述第一类分布不确定性奖励,学习所述目标机器人的探索策略。
如图2所示,本申请实施例提出了两种新的基于分布的奖励方式,通过最大化该目标机器人在移动过程中的语义分布不一致性和类分布不确定性来训练探索策略at=π(It,θ),其中,π表示需要训练的策略网络,It表示观测图像,θ表示策略网络的参数。该探索策略可以用于确定目标机器人的探索轨迹。即利用3D语义分布图以自监督的方式通过语义分布不一致和类分布不确定性来学习目标机器人的探索策略。其中,最大化该目标机器人在移动过程中的语义分布不一致性和类分布不确定性的目的为,希望基于学习到的探索策略确定的探索轨迹中的图像的语义分布不一致性和类分布不确定性是比较高的。
其中,可以基于3D语义分布图与不同视角对应的第一观测图像计算第一语义分布不一致性奖励r;且可以基于同一个视角对应的单帧的第二观测图像中第i个针对每一目标对象的第一预测类别概率计算第一类分布不确定性奖励u;然后,基于第一语义分布不一致性奖励r与第一类分布不确定性奖励u的和,得到目标奖励reward,即reward=r+u;并使用强化学习PPO算法来训练探索策略,at=π(It,θ),其中,θ<-PPO[reward,π(θ)],PPO表示强化学习PPO算法。
其中,第一语义分布不一致性奖励,被定义为第一观测图像对应的当前预测结果与3D语义分布图之间的Kullback-Leibler散度,第一语义分布不一致性奖励鼓励目标机器人不仅探索新的目标对象而且探索跨视角具有不同预测分布结果的对象:r=KL(mt,Mt-1),其中,r表示第一语义分布不一致性奖励,mt表示第一观测图像对应的当前预测的体素表示,Mt-1表示上一步得到的3D语义分布图。
其中,KL散度可以用来衡量两个分布之间的差异程度。若两者差异越小,KL散度越小,反之亦反;当两者分布一致时,其KL散度为0。
其中,第一类分布不确定性奖励,用于探索第二观测图像中预测为多个类别、且多个类别中有两个类别的置信度比较接近的目标对象。其中,第一类分布不确定性奖励u=SECmax(Pi),Pi是单帧的第二观测图像中第i个目标对象的第一预测类别概率,SECmax表示中的第二个最大值。若u大于第一预设阈值δ,则认为预测的类分布结果是不确定的。例如,该第一预设阈值δ可以设置为0.1。或者,该第一预设阈值δ可以设置为0.3。
在一些实施例中,在所述学习所述目标机器人的探索策略之前,还包括:
将所述三维语义分布图输入全局策略网络中选择长期目标,所述长期目标为所述三维语义分布图中的x-y坐标;
将所述长期目标输入局部策略网络进行路径规划,得到所述目标机器人的预测离散动作,所述预测离散动作包括前移、左转和左转中的至少一种;
基于预设个数的局部步长对所述长期目标进行采样,得到采样数据,所述采样数据用于学习所述目标机器人的离散动作。
例如,策略网络可以分为两个部分,一个称之为全局策略网络,用于预测可能的x-y坐标;另一个称之为局部策略网络,就是使用快速行进方法进行路径规划,以根据坐标预测目标机器人的预测离散动作。为了训练探索策略,首先将3D语义分布图输入到全局策略网络中来选择长期目标,该长期目标表示3D语义分布图中的x-y坐标。然后,将长期目标输入局部策略网络进路径规划,得到目标机器人的预测离散动作,预测离散动作包括前移、左转和左转中的至少一种,该局部策略网络就是快速行进方法,使用快速行进方法进行路径规划,该方法使用低维度导航动作来实现目标,根据长期目标的坐标来预测目标机器人的预测离散动作是前移、左转、还是右转。其中,例如,预设个数为25个,以每25个局部步长对长期目标进行采样来缩短强化学习探索的时间范围,以得到采样数据,该采样数据用于在训练探测策略的过程中输入策略网络,来学习目标机器人的离散动作,进而根据学习到的目标机器人的离散动作学习探索轨迹。
例如,将全局策略网络预测的长期目标(x-y坐标),输入局部策略网络(比如FastMarching Method网络)进行路径规划,得到目标机器人的预测离散动作(前进、左转、右转中的一种),走完一步后,继续预测下一步对应的目标机器人的预测离散动作(前进、左转、右转中的一种),一直到走第25步,再对全局策略网络进行更新,并预测新的长期目标(x-y坐标),并继续用新的长期目标重新预测下一轮的25个局部步长对应的目标机器人的预测离散动作。
步骤140,根据所述探索策略移动所述目标机器人,以得到所述目标机器人的探索轨迹,所述探索轨迹包括所述目标机器人在所述目标观察空间内移动的过程中采集的目标观测图像。
在一些实施例中,所述根据所述探索策略移动所述目标机器人,以得到所述目标机器人的探索轨迹,包括:
根据所述探索策略以及所述目标机器人在当前时刻ti采集到的目标观测信息,确定所述目标机器人在下一时刻ti+1的行进方向,其中,所述行进方向用于指示所述目标机器人在下一时刻ti+1的应该移动的方向,所述目标观测信息包括目标观测图像、目标深度图像和目标传感器位姿信息,i≥0;
控制所述目标机器人基于所述行进方向执行移动操作,以得到所述目标机器人的探索轨迹,以及所述探索轨迹上每个时间步的目标观测图像。
例如,通过语义分布不一致性和类分布不确定性学习探索策略后,可以使得该学习到的探索策略指引机器人移动得到的探索轨迹中可以出现更多语义分布不一致性的样本和更多类分布不确定性的样本。
例如,学习到探索策略后,基于学习到的探索策略,根据目标机器人在t0时刻对应的起始点的目标观测信息,该目标观测信息包括目标观测图像、目标深度图像和目标传感器位姿信息,策略网络直接可以输出目标机器人在t1时刻的行进方向,该行进方向表示目标机器人在t1时刻应该向哪个方向走。控制目标机器人基于t1时刻的行进方向执行移动操作之后,继续基于学习到的探索策略以及当前时刻ti所在位置采集到的目标观测信息,利用策略网络输出目标机器人在下一时刻ti+1的行进方向,并控制目标机器人基于下一时刻ti+1的行进方向执行移动操作。进过上述操作,就会获得一条表示目标机器人运动路径的探索轨迹,以及该探索轨迹上每个时间步的目标观测图像。
例如,在采集探索轨迹上的目标观测图像时,除了保存同一个视角对应的第二目标观测图像,还需保存整个目标观察空间内不同视角对应的第一目标观测图像。
步骤150,基于所述语义分布不一致性与所述类分布不确定性中的至少一种条件,从所述探索轨迹对应的目标观测图像中获取难样本图像,所述难样本图像用于表征预测的语义分布结果不一致和/或预测的类分布结果不确定的图像。
在一些实施例中,所述探索轨迹对应的目标观测图像包括第一目标观测图像和第二目标观测图像,所述第一目标观测图像为从不同视角观测同一个目标对象时采集的观测图像,所述第二目标观测图像为从同一个视角观测同一个目标对象时采集的观测图像;
所述基于所述语义分布不一致性与所述类分布不确定性中的至少一种条件,从所述探索轨迹对应的目标观测图像中获取难样本图像,包括:
基于所述语义分布不一致性的条件,从所述探索轨迹对应的第一目标观测图像中获取第一难样本图像,所述第一难样本图像用于表征预测的语义分布结果不一致的图像;和/或
基于所述类分布不确定性的条件,从所述探索轨迹对应的第二目标观测图像中获取第二难样本图像,所述第二难样本图像用于表征预测的类分布结果不确定的图像。
在一些实施例中,所述基于所述类分布不确定性的条件,从所述探索轨迹对应的第二目标观测图像中获取第二难样本图像,包括:
获取所述探索轨迹对应的第二目标观测图像;
计算所述探索轨迹对应的第二目标观测图像中所有目标对象的第二预测类别概率;
基于所述第二目标观测图像中所有目标对象的第二预测类别概率,计算第二类分布不确定性;
将所述第二目标观测图像中所述第二类分布不确定性大于第一预设阈值对应的图像确定为第二难样本图像。
示例性地,计算探索轨迹对应的第二目标观测图像中所有目标对象的第二预测类别概率,并基于所有目标对象的第二预测类别概率,计算第二类分布不确定性,将探索轨迹对应的第二目标观测图像中第二类分布不确定性大于第一预设阈值对应的图像确定为第二难样本图像。例如,在实际应用中,从探索轨迹中采样的图像,一般是采样同一个视角(单视角)对应的单帧的第二目标观测图像,可以只考虑同一个视角对应的第二类分布不确定性来选出类分布结果不确定的第二难样本图像,在实际应用中,通过同一个视角对应的第二类分布不确定性来选出第二难样本图像对感知模型调整更有帮助。通过关注同一个视角预测的类分布不确定性,可以选出更多的难样本图像。
在一些实施例中,所述基于所述语义分布不一致性的条件,从所述探索轨迹对应的第一目标观测图像中获取第一难样本图像,包括:
获取所述探索轨迹对应的第一目标观测图像;
根据所述第一目标观测图像,获取所述目标机器人移动过程中从不同视角观测同一个目标对象时的目标预测结果,并基于所述目标预测结果与所述三维语义分布图,计算第二语义分布不一致性;
将所述第一目标观测图像中所述第二语义分布不一致性大于第二预设阈值对于的图像确定为第一难样本图像。
示例性地,若目标机器人在移动的过程中保存了整个目标观察空间内的探索轨迹,则可以从探索轨迹中采样不同视角(多视角)对应的第一目标观测图像,然后对第一目标观测图像进行语义类别预测,以获取目标机器人移动过程中从不同视角观测同一个目标对象时的目标预测结果,并基于目标预测结果与三维语义分布图,计算第二语义分布不一致性,并基于第二语义分布不一致性从第二目标预测图像中选出语义分布结果不一致性的第一难样本图像。通过关注不同视角预测的语义分布不一致性,,可以选出更多的难样本图像。
例如,若难样本图像包括第一难样本图像和第二难样本图像,则通过关注同一个视角预测的类分布不确定性以及关注不同视角预测的语义分布不一致性,可以选出更多的难样本图像,并突出难样本图像的重要性。
步骤160,根据所述难样本图像调整所述目标机器人的感知模型。
在一些实施例中,所述根据所述难样本图像调整所述目标机器人的感知模型,包括:
获取所述难样本图像以及所述难样本图像的语义标注信息,其中,所述语义标注信息包括每一所述难样本图像中所有目标对象的边界框、每个所述目标对象对应的像素以及每个所述目标对象所属的类别;
将所述难样本图像输入所述预训练的感知模型,得到所述难样本图像对应的语义类别预测结果;
基于所述难样本图像对应的语义类别预测结果与所述语义标注信息,调整所述预训练的感知模型的参数,以得到调整后的感知模型。
例如,在获得探索轨迹后,最简单的方法是标注探索轨迹上的所有目标观测图像作为样本图像。但是,尽管经过训练的探索策略学习到的探索轨迹能够找到更多语义分布不一致性和类分布不确定性的对象,但仍有许多目标观测图像能被预训练的感知模型准确识别。因此,为了有效地微调感知模型,在探索轨迹获取到的所有目标观测图像的基础上,可以忽略掉能被预训练的感知模型准确识别的样本图像,然后筛选出不能被预训练的感知模型准确识别的难样本图像来微调感知模型。例如,可以通过计算第二语义分布不一致性和/或第二类分布不确定性,基于第二语义分布不一致性选出预测的语义分布结果不一致的第一难样本图像,和/或基于第二类分布不确定性选出预测的类分布结果不确定的第二难样本图像,并对选定的的语义分布结果不一致的第一难样本图像和/或类分布结果不确定的第二难样本图像进行标注,并使用所有难样本图像来微调感知模型。
具体的,在获取难样本图像后,标注难样本图像的语义标注信息,具体标注每一难样本图像中所有目标对象的边界框、每个目标对象对应的像素以及每个目标对象所属的类别。然后,将所有难样本图像输入预训练的感知模型,得到每一难样本图像对应的语义类别预测结果。然后,基于每一难样本图像对应的语义类别预测结果与语义标注信息,调整预训练的感知模型的参数,使得感知模型针对该难样本图像输出的语义类别预测结果更接近已标注的语义标注信息中目标对象所属的类别,进而提升感知模型的感知准确性,其中,该感知模型的参数为Mask RCNN中的参数;并基于随机收集的测试样本集进行测试,并基于测试样本集对应的正确率不再增加时停止训练,以得到调整后的感知模型。
如下表1所示,本申请实施例采用的方法(Ours)在Matterport3D数据集上与相关技术相比,取得了最好的性能。该性能表示在物体检测(Bbox)和实例分割(Segm)上的AP50的性能,表征感知的准确性。其中,AP50的性能的最优是100%。
表1
如下表2所示,示出了通过基于最新微调过的感知模型迭代训练探索策略时,基于如下目标对象:椅子(chair)、沙发(couch)、盆栽(potted)、床(bed)、卫生间(toilet)、电视(Tv)等,进行感知预测的性能。根据表2可知,基于最新微调过的感知模型迭代训练探索策略,性能可以进一步提升。比如,当迭代次数n为1时,AP50的平均性能为34.07%;当迭代次数n为2时,AP50的平均性能为34.71%;当迭代次数n为3时,AP50的平均性能为35.03%。
表2
上述所有的技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
本申请实施例通过获取目标机器人在目标观察空间内采集的观测信息,观测信息包括观测图像、深度图像和传感器位姿信息;根据观测信息,获取三维语义分布图;根据三维语义分布图,基于语义分布不一致性和类分布不确定性的条件,学习目标机器人的探索策略;根据探索策略移动目标机器人,以得到目标机器人的探索轨迹,探索轨迹包括目标机器人在目标观察空间内移动的过程中采集的目标观测图像;基于语义分布不一致性与类分布不确定性中的至少一种条件,从探索轨迹对应的目标观测图像中获取难样本图像,难样本图像用于表征预测的语义分布结果不一致和/或预测的类分布结果不确定的图像;根据难样本图像调整目标机器人的感知模型。本申请实施例通过利用三维语义分布图以自监督的方式通过语义分布不一致性和类分布不确定性来学习探索轨迹,并利用语义分布不一致性与类分布不确定性中的至少一种条件来收集学习到的探索轨迹上的难样本图像,在对收集到的难样本图像进行语义标注后,基于标注的难样本图像微调感知模型,基于三维语义分布图来衡量语义分布差异,并结合语义分布不一致性和类分布不确定性来学习探索轨迹,以关注同一个视角预测的类分布不确定性以及关注不同视角预测的语义分布不一致性,并突出难样本图像的重要性,最终基于标注的难样本图像微调感知模型,降低了标注成本,提升了感知模型的感知准确性。
为便于更好的实施本申请实施例的图像处理方法,本申请实施例还提供一种图像处理装置。请参阅图3,图3为本申请实施例提供的图像处理装置的结构示意图。其中,该图像处理装置200可以包括:
第一获取单元210,用于获取目标机器人在目标观察空间内采集的观测信息,所述观测信息包括观测图像、深度图像和传感器位姿信息;
第二获取单元220,用于根据所述观测信息,获取三维语义分布图;
学习单元230,用于根据所述三维语义分布图,基于语义分布不一致性和类分布不确定性的条件,学习所述目标机器人的探索策略;
确定单元240,用于根据所述探索策略移动所述目标机器人,以得到所述目标机器人的探索轨迹,所述探索轨迹包括所述目标机器人在所述目标观察空间内移动的过程中采集的目标观测图像;
第三获取单元250,用于基于所述语义分布不一致性与所述类分布不确定性中的至少一种条件,从所述探索轨迹对应的目标观测图像中获取难样本图像,所述难样本图像用于表征预测的语义分布结果不一致和/或预测的类分布结果不确定的图像;
调整单元260,用于根据所述难样本图像调整所述目标机器人的感知模型。
在一些实施例中,所述语义分布不一致性表示所述目标机器人在移动过程中从不同视角观测同一个目标对象时,得到不一致的预测分布结果;所述类分布不确定性表示所述目标机器人在移动过程中从同一个视角观测同一个目标对象时,将所述目标对象的类别预测为多个类别、且所述多个类别中有两个类别得到的预测类别概率相近且均大于第一预设阈值的情况。
在一些实施例中,所述观测图像包括第一观测图像和第二观测图像,所述第一目标观测图像为从不同视角观测同一个目标对象时采集的观测图像,所述第二目标观测图像为从同一个视角观测同一个目标对象时采集的观测图像;所述学习单元230,具体用于:根据所述第一观测图像,获取所述目标机器人移动过程中从不同视角观测同一个目标对象时的当前预测结果,并基于所述当前预测结果与所述三维语义分布图,计算第一语义分布不一致性奖励;获取所述第二观测图像中所有目标对象的第一预测类别概率,并基于所述所有目标对象的第一预测类别概率,计算第一类分布不确定性奖励;根据所述第一语义分布不一致性奖励与所述第一类分布不确定性奖励,学习所述目标机器人的探索策略。
在一些实施例中,所述探索轨迹对应的目标观测图像包括第一目标观测图像和第二目标观测图像,所述第一目标观测图像为从不同视角观测同一个目标对象时采集的观测图像,所述第二目标观测图像为从同一个视角观测同一个目标对象时采集的观测图像;所述第三获取单元250,具体用于:
基于所述语义分布不一致性的条件,从所述探索轨迹对应的第一目标观测图像中获取第一难样本图像,所述第一难样本图像用于表征预测的语义分布结果不一致的图像;和/或
基于所述类分布不确定性的条件,从所述探索轨迹对应的第二目标观测图像中获取第二难样本图像,所述第二难样本图像用于表征预测的类分布结果不确定的图像。
在一些实施例中,所述第三获取单元250在基于所述类分布不确定性的条件,从所述探索轨迹对应的第二目标观测图像中获取第二难样本图像时,具体用于:获取所述探索轨迹对应的第二目标观测图像;计算所述探索轨迹对应的第二目标观测图像中所有目标对象的第二预测类别概率;基于所述第二目标观测图像中所有目标对象的第二预测类别概率,计算第二类分布不确定性;将所述第二目标观测图像中所述第二类分布不确定性大于第一预设阈值对应的图像确定为第二难样本图像。
在一些实施例中,所述第三获取单元250在基于所述语义分布不一致性的条件,从所述探索轨迹对应的第一目标观测图像中获取第一难样本图像时,具体用于:获取所述探索轨迹对应的第一目标观测图像;根据所述第一目标观测图像,获取所述目标机器人移动过程中从不同视角观测同一个目标对象时的目标预测结果,并基于所述目标预测结果与所述三维语义分布图,计算第二语义分布不一致性;将所述第一目标观测图像中所述第二语义分布不一致性大于第二预设阈值对于的图像确定为第一难样本图像。
在一些实施例中,所述确定单元240,具体用于:根据所述探索策略以及所述目标机器人在当前时刻ti采集到的目标观测信息,确定所述目标机器人在下一时刻ti+1的行进方向,其中,所述行进方向用于指示所述目标机器人在下一时刻ti+1的应该移动的方向,所述目标观测信息包括目标观测图像、目标深度图像和目标传感器位姿信息,i≥0;控制所述目标机器人基于所述行进方向执行移动操作,以得到所述目标机器人的探索轨迹,以及所述探索轨迹上每个时间步的目标观测图像。
在一些实施例中,所述第二获取单元220,具体用于:将所述观测图像输入预训练的感知模型,得到所述观测图像的语义类别预测结果,所述语义类别预测结果用于表征所述观测图像中每个像素在C个类别之间的预测概率分布,所述C表示预测的目标对象的种类数;基于所述深度图像建立所述目标观察空间对应的点云,其中,所述点云中的每个点对应相应的所述语义类别预测结果;基于所述传感器位姿信息,将所述点云转换到三维空间来获取体素表示;基于指数移动平均公式来聚合随着时间变化的同一位置的所述体素表示,以得到所述三维语义分布图。
在一些实施例中,所述调整单元250,具体用于:获取所述难样本图像以及所述难样本图像的语义标注信息,其中,所述语义标注信息包括每一所述难样本图像中所有目标对象的边界框、每个所述目标对象对应的像素以及每个所述目标对象所属的类别;将所述难样本图像输入所述预训练的感知模型,得到所述难样本图像对应的语义类别预测结果;基于所述难样本图像对应的语义类别预测结果与所述语义标注信息,调整所述预训练的感知模型的参数,以得到调整后的感知模型。
在一些实施例中,所述学习单元230在所述学习所述目标机器人的探索轨迹之前,还用于:将所述三维语义分布图输入全局策略网络中选择长期目标,所述长期目标为所述三维语义分布图中的x-y坐标;将所述长期目标输入局部策略网络进行路径规划,得到所述目标机器人的预测离散动作,所述预测离散动作包括前移、左转和左转中的至少一种;基于预设个数的局部步长对所述长期目标进行采样,得到采样数据,所述采样数据用于学习所述目标机器人的离散动作。
在一些实施例中,所述第一获取单元210,具体用于:基于所述目标机器人的拍摄装置获取预设时间段内每个时间步长对应的观测图像和深度图像,其中,所述观测图像为彩色图像,所述深度图像为将所述拍摄装置采集到的目标观察空间中各点的距离值作为像素值的图像;基于所述目标机器人的传感器获取预设时间段内每个时间步长对应的传感器位姿信息,所述传感器位姿信息至少包括三自由度的位姿信息。
上述图像处理装置200中的各个单元可全部或部分通过软件、硬件及其组合来实现。上述各个单元可以以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行上述各个单元对应的操作。
图像处理装置200,可以集成在具备储存器并安装有处理器而具有运算能力的终端或服务器中,或者该图像处理装置200为该终端或服务器。
在一些实施例中,本申请还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一些实施例中,本申请还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
如图4所示,图4为本申请实施例提供的计算机设备的结构示意图,该计算机设备可以是终端。该计算机设备300包括有一个或者一个以上处理核心的处理器301、有一个或一个以上计算机可读存储介质的存储器302及存储在存储器302上并可在处理器上运行的计算机程序。其中,处理器301与存储器302电性连接。本领域技术人员可以理解,图中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
处理器301是计算机设备300的控制中心,利用各种接口和线路连接整个计算机设备300的各个部分,通过运行或加载存储在存储器302内的软件程序和/或模块,以及调用存储在存储器302内的数据,执行计算机设备300的各种功能和处理数据,从而对计算机设备300进行整体处理。
在本申请实施例中,计算机设备300中的处理器301会按照如下的步骤,将一个或一个以上的应用程序的进程对应的指令加载到存储器302中,并由处理器301来运行存储在存储器302中的应用程序,从而实现各种功能:
获取目标机器人在目标观察空间内采集的观测信息,所述观测信息包括观测图像、深度图像和传感器位姿信息;根据所述观测信息,获取三维语义分布图;根据所述三维语义分布图,基于语义分布不一致性和类分布不确定性的条件,学习所述目标机器人的探索策略;根据所述探索策略移动所述目标机器人,以得到所述目标机器人的探索轨迹,所述探索轨迹包括所述目标机器人在所述目标观察空间内移动的过程中采集的目标观测图像;基于所述语义分布不一致性与所述类分布不确定性中的至少一种条件,从所述探索轨迹对应的目标观测图像中获取难样本图像,所述难样本图像用于表征预测的语义分布结果不一致和/或预测的类分布结果不确定的图像;根据所述难样本图像调整所述目标机器人的感知模型。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
在一些实施例中,如图4所示,计算机设备300还包括:触控显示屏303、射频电路304、音频电路305、输入单元306以及电源307。其中,处理器301分别与触控显示屏303、射频电路304、音频电路305、输入单元306以及电源307电性连接。本领域技术人员可以理解,图4中示出的计算机设备结构并不构成对计算机设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
触控显示屏303可用于显示图形用户界面以及接收用户作用于图形用户界面产生的操作指令。触控显示屏303可以包括显示面板和触控面板。其中,显示面板可用于显示由用户输入的信息或提供给用户的信息以及计算机设备的各种图形用户接口,这些图形用户接口可以由图形、文本、图标、视频和其任意组合来构成。在一些实施例中,可以采用液晶显示器(LCD,Liquid Crystal Display)、有机发光二极管(OLED,Organic Light-EmittingDiode)等形式来配置显示面板。触控面板可用于收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板上或在触控面板附近的操作),并生成相应的操作指令,且操作指令执行对应程序。在一些实施例中,触控面板可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器301,并能接收处理器301发来的命令并加以执行。触控面板可覆盖显示面板,当触控面板检测到在其上或附近的触摸操作后,传送给处理器301以确定触摸事件的类型,随后处理器301根据触摸事件的类型在显示面板上提供相应的视觉输出。在本申请实施例中,可以将触控面板与显示面板集成到触控显示屏303而实现输入和输出功能。但是在某些实施例中,触控面板与触控面板可以作为两个独立的部件来实现输入和输出功能。即触控显示屏303也可以作为输入单元306的一部分实现输入功能。
射频电路304可用于收发射频信号,以通过无线通信与网络设备或其他计算机设备建立无线通讯,与网络设备或其他计算机设备之间收发信号。
音频电路305可以用于通过扬声器、传声器提供用户与计算机设备之间的音频接口。音频电路305可将接收到的音频数据转换后的电信号,传输到扬声器,由扬声器转换为声音信号输出;另一方面,传声器将收集的声音信号转换为电信号,由音频电路305接收后转换为音频数据,再将音频数据输出处理器301处理后,经射频电路304以发送给比如另一计算机设备,或者将音频数据输出至存储器302以便进一步处理。音频电路305还可能包括耳塞插孔,以提供外设耳机与计算机设备的通信。
输入单元306可用于接收输入的数字、字符信息或对象特征信息(例如指纹、虹膜、面部信息等),以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
电源307用于给计算机设备300的各个部件供电。在一些实施例中,电源307可以通过电源管理系统与处理器301逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源307还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
尽管图4中未示出,计算机设备300还可以包括摄像头、传感器、无线保真模块、蓝牙模块等,在此不再赘述。
本申请还提供了一种机器人,该机器人上搭载有拍摄装置和传感器,该机器人还包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
本申请还提供了一种计算机可读存储介质,用于存储计算机程序。该计算机可读存储介质可应用于计算机设备,并且该计算机程序使得计算机设备执行本申请实施例中的图像处理方法中的相应流程,为了简洁,在此不再赘述。
本申请还提供了一种计算机程序产品,该计算机程序产品包括计算机程序,该计算机程序存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机程序,处理器执行该计算机程序,使得计算机设备执行本申请实施例中的图像处理方法中的相应流程,为了简洁,在此不再赘述。
本申请还提供了一种计算机程序,该计算机程序包括计算机程序,计算机程序存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机程序,处理器执行该计算机程序,使得计算机设备执行本申请实施例中的图像处理方法中的相应流程,为了简洁,在此不再赘述。
应理解,本申请实施例的处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法实施例的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器、数字信号处理器(Digital SignalProcessor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
可以理解,本申请实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double Data RateSDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(DirectRambus RAM,DR RAM)。应注意,本文描述的系统和方法的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能若以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
Claims (13)
1.一种图像处理方法,其特征在于,所述方法包括:
获取目标机器人在目标观察空间内采集的观测信息,所述观测信息包括观测图像、深度图像和传感器位姿信息;所述观测图像包括第一观测图像和第二观测图像,所述第一观测图像为从不同视角观测同一个目标对象时采集的观测图像,所述第二观测图像为从同一个视角观测同一个目标对象时采集的观测图像;
根据所述观测信息,获取三维语义分布图;
根据所述三维语义分布图,基于语义分布不一致性和类分布不确定性的条件,学习所述目标机器人的探索策略,包括:根据所述第一观测图像,获取所述目标机器人移动过程中从不同视角观测同一个目标对象时的当前预测结果,并基于所述当前预测结果与所述三维语义分布图,计算第一语义分布不一致性奖励; 获取所述第二观测图像中所有目标对象的第一预测类别概率,并基于所述所有目标对象的第一预测类别概率,计算第一类分布不确定性奖励;根据所述第一语义分布不一致性奖励与所述第一类分布不确定性奖励,学习所述目标机器人的探索策略;所述语义分布不一致性表示所述目标机器人在移动过程中从不同视角观测同一个目标对象时,得到不一致的预测分布结果;所述类分布不确定性表示所述目标机器人在移动过程中从同一个视角观测同一个目标对象时,将所述目标对象的类别预测为多个类别、且所述多个类别中有两个类别得到的预测类别概率相近且均大于第一预设阈值的情况;
根据所述探索策略移动所述目标机器人,以得到所述目标机器人的探索轨迹,所述探索轨迹包括所述目标机器人在所述目标观察空间内移动的过程中采集的目标观测图像;
基于所述语义分布不一致性与所述类分布不确定性中的至少一种条件,从所述探索轨迹对应的目标观测图像中获取难样本图像,所述难样本图像用于表征预测的语义分布结果不一致和/或预测的类分布结果不确定的图像;
根据所述难样本图像调整所述目标机器人的感知模型。
2.如权利要求1所述的图像处理方法,所述探索轨迹对应的目标观测图像包括第一目标观测图像和第二目标观测图像,所述第一目标观测图像为从不同视角观测同一个目标对象时采集的观测图像,所述第二目标观测图像为从同一个视角观测同一个目标对象时采集的观测图像;
所述基于所述语义分布不一致性与所述类分布不确定性中的至少一种条件,从所述探索轨迹对应的目标观测图像中获取难样本图像,包括:
基于所述语义分布不一致性的条件,从所述探索轨迹对应的第一目标观测图像中获取第一难样本图像,所述第一难样本图像用于表征预测的语义分布结果不一致的图像;和/或
基于所述类分布不确定性的条件,从所述探索轨迹对应的第二目标观测图像中获取第二难样本图像,所述第二难样本图像用于表征预测的类分布结果不确定的图像。
3.如权利要求2所述的图像处理方法,其特征在于,所述基于所述类分布不确定性的条件,从所述探索轨迹对应的第二目标观测图像中获取第二难样本图像,包括:
获取所述探索轨迹对应的第二目标观测图像;
计算所述探索轨迹对应的第二目标观测图像中所有目标对象的第二预测类别概率;
基于所述第二目标观测图像中所有目标对象的第二预测类别概率,计算第二类分布不确定性;
将所述第二目标观测图像中所述第二类分布不确定性大于第一预设阈值对应的图像确定为第二难样本图像。
4.如权利要求2所述的图像处理方法,其特征在于,所述基于所述语义分布不一致性的条件,从所述探索轨迹对应的第一目标观测图像中获取第一难样本图像,包括:
获取所述探索轨迹对应的第一目标观测图像;
根据所述第一目标观测图像,获取所述目标机器人移动过程中从不同视角观测同一个目标对象时的目标预测结果,并基于所述目标预测结果与所述三维语义分布图,计算第二语义分布不一致性;
将所述第一目标观测图像中所述第二语义分布不一致性大于第二预设阈值对应的图像确定为第一难样本图像。
5.如权利要求1-4任一项所述的图像处理方法,其特征在于,所述根据所述探索策略移动所述目标机器人,以得到所述目标机器人的探索轨迹,包括:
根据所述探索策略以及所述目标机器人在当前时刻ti采集到的目标观测信息,确定所述目标机器人在下一时刻ti+1的行进方向,其中,所述行进方向用于指示所述目标机器人在下一时刻ti+1的应该移动的方向,所述目标观测信息包括目标观测图像、目标深度图像和目标传感器位姿信息,i≥0;
控制所述目标机器人基于所述行进方向执行移动操作,以得到所述目标机器人的探索轨迹,以及所述探索轨迹上每个时间步的目标观测图像。
6.如权利要求1-4任一项所述的图像处理方法,其特征在于,所述根据所述观测信息,获取三维语义分布图,包括:
将所述观测图像输入预训练的感知模型,得到所述观测图像的语义类别预测结果,所述语义类别预测结果用于表征所述观测图像中每个像素在C个类别之间的预测概率分布,所述C表示预测的目标对象的种类数;
基于所述深度图像建立所述目标观察空间对应的点云,其中,所述点云中的每个点对应相应的所述语义类别预测结果;
基于所述传感器位姿信息,将所述点云转换到三维空间来获取体素表示;
基于指数移动平均公式来聚合随着时间变化的同一位置的所述体素表示,以得到所述三维语义分布图;
所述指数移动平均公式表示为:
;
;
其中,Mt表示当前获取的三维语义分布图;Mt-1表示上一步得到的三维语义分布图;mt表示当前预测的体素表示;λ表示一个超参数,用于控制当前预测的体素表示mt与上一步得到的三维语义分布图Mt-1的比例。
7.如权利要求6所述的图像处理方法,其特征在于,所述根据所述难样本图像调整所述目标机器人的感知模型,包括:
获取所述难样本图像以及所述难样本图像的语义标注信息,其中,所述语义标注信息包括每一所述难样本图像中所有目标对象的边界框、每个所述目标对象对应的像素以及每个所述目标对象所属的类别;
将所述难样本图像输入所述预训练的感知模型,得到所述难样本图像对应的语义类别预测结果;
基于所述难样本图像对应的语义类别预测结果与所述语义标注信息,调整所述预训练的感知模型的参数,以得到调整后的感知模型。
8.如权利要求1-4任一项所述的图像处理方法,其特征在于,在所述学习所述目标机器人的探索策略之前,还包括:
将所述三维语义分布图输入全局策略网络中选择长期目标,所述长期目标为所述三维语义分布图中的x-y坐标;
将所述长期目标输入局部策略网络进行路径规划,得到所述目标机器人的预测离散动作,所述预测离散动作包括前移、左转和右转中的至少一种;
基于预设个数的局部步长对所述长期目标进行采样,得到采样数据,所述采样数据用于学习所述目标机器人的离散动作。
9.如权利要求1-4任一项所述的图像处理方法,其特征在于,所述获取目标机器人在目标观察空间内采集的观测信息,包括:
基于所述目标机器人的拍摄装置获取预设时间段内每个时间步长对应的观测图像和深度图像,其中,所述观测图像为彩色图像,所述深度图像为将所述拍摄装置采集到的目标观察空间中各点的距离值作为像素值的图像;
基于所述目标机器人的传感器获取预设时间段内每个时间步长对应的传感器位姿信息,所述传感器位姿信息至少包括三自由度的位姿信息。
10.一种图像处理装置,其特征在于,所述装置包括:
第一获取单元,用于获取目标机器人在目标观察空间内采集的观测信息,所述观测信息包括观测图像、深度图像和传感器位姿信息;所述观测图像包括第一观测图像和第二观测图像,所述第一观测图像为从不同视角观测同一个目标对象时采集的观测图像,所述第二观测图像为从同一个视角观测同一个目标对象时采集的观测图像;
第二获取单元,用于根据所述观测信息,获取三维语义分布图;
学习单元,用于根据所述三维语义分布图,基于语义分布不一致性和类分布不确定性的条件,学习所述目标机器人的探索策略,包括:根据所述第一观测图像,获取所述目标机器人移动过程中从不同视角观测同一个目标对象时的当前预测结果,并基于所述当前预测结果与所述三维语义分布图,计算第一语义分布不一致性奖励; 获取所述第二观测图像中所有目标对象的第一预测类别概率,并基于所述所有目标对象的第一预测类别概率,计算第一类分布不确定性奖励;根据所述第一语义分布不一致性奖励与所述第一类分布不确定性奖励,学习所述目标机器人的探索策略;所述语义分布不一致性表示所述目标机器人在移动过程中从不同视角观测同一个目标对象时,得到不一致的预测分布结果;所述类分布不确定性表示所述目标机器人在移动过程中从同一个视角观测同一个目标对象时,将所述目标对象的类别预测为多个类别、且所述多个类别中有两个类别得到的预测类别概率相近且均大于第一预设阈值的情况;
确定单元,用于根据所述探索策略移动所述目标机器人,以得到所述目标机器人的探索轨迹,所述探索轨迹包括所述目标机器人在所述目标观察空间内移动的过程中采集的目标观测图像;
第三获取单元,用于基于所述语义分布不一致性与所述类分布不确定性中的至少一种条件,从所述探索轨迹对应的目标观测图像中获取难样本图像,所述难样本图像用于表征预测的语义分布结果不一致和/或预测的类分布结果不确定的图像;
调整单元,用于根据所述难样本图像调整所述目标机器人的感知模型。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序适于处理器进行加载,以执行如权利要求1-9任一项所述的图像处理方法。
12.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有计算机程序,所述处理器通过调用所述存储器中存储的所述计算机程序,用于执行权利要求1-9任一项所述的图像处理方法。
13.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-9任一项所述的图像处理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211014186.7A CN115471731B (zh) | 2022-08-23 | 2022-08-23 | 图像处理方法、装置、存储介质及设备 |
PCT/CN2023/112209 WO2024041392A1 (zh) | 2022-08-23 | 2023-08-10 | 图像处理方法、装置、存储介质及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211014186.7A CN115471731B (zh) | 2022-08-23 | 2022-08-23 | 图像处理方法、装置、存储介质及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115471731A CN115471731A (zh) | 2022-12-13 |
CN115471731B true CN115471731B (zh) | 2024-04-09 |
Family
ID=84367693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211014186.7A Active CN115471731B (zh) | 2022-08-23 | 2022-08-23 | 图像处理方法、装置、存储介质及设备 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN115471731B (zh) |
WO (1) | WO2024041392A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115471731B (zh) * | 2022-08-23 | 2024-04-09 | 北京有竹居网络技术有限公司 | 图像处理方法、装置、存储介质及设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107330973A (zh) * | 2017-07-03 | 2017-11-07 | 深圳市唯特视科技有限公司 | 一种基于多视角监督的单视角重建方法 |
CN111862213A (zh) * | 2020-07-29 | 2020-10-30 | Oppo广东移动通信有限公司 | 定位方法及装置、电子设备、计算机可读存储介质 |
CN113239629A (zh) * | 2021-06-03 | 2021-08-10 | 上海交通大学 | 一种轨迹空间行列式点过程的强化学习探索和利用的方法 |
CN113593035A (zh) * | 2021-07-09 | 2021-11-02 | 清华大学 | 一种运动控制决策生成方法、装置、电子设备及存储介质 |
CN113743417A (zh) * | 2021-09-03 | 2021-12-03 | 北京航空航天大学 | 语义分割方法和语义分割装置 |
CN114089752A (zh) * | 2021-11-11 | 2022-02-25 | 深圳市杉川机器人有限公司 | 机器人的自主探索方法、机器人及计算机可读存储介质 |
CN114372520A (zh) * | 2021-12-29 | 2022-04-19 | 同济大学 | 一种基于双智能体竞争强化学习的机器人路径探索方法 |
CN114782530A (zh) * | 2022-03-28 | 2022-07-22 | 杭州国辰机器人科技有限公司 | 室内场景下的三维语义地图构建方法、装置、设备及介质 |
CN114879660A (zh) * | 2022-04-14 | 2022-08-09 | 海南大学 | 一种基于目标驱动的机器人环境感知方法 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109102547A (zh) * | 2018-07-20 | 2018-12-28 | 上海节卡机器人科技有限公司 | 基于物体识别深度学习模型的机器人抓取位姿估计方法 |
DE102018216561A1 (de) * | 2018-09-27 | 2020-04-02 | Robert Bosch Gmbh | Verfahren, Vorrichtung und Computerprogramm zum Ermitteln einer Strategie eines Agenten |
US11176709B2 (en) * | 2019-10-17 | 2021-11-16 | Toyota Research Institute, Inc. | Systems and methods for self-supervised scale-aware training of a model for monocular depth estimation |
CN111524187B (zh) * | 2020-04-22 | 2023-06-02 | 北京三快在线科技有限公司 | 一种视觉定位模型的训练方法及装置 |
CN111814683B (zh) * | 2020-07-09 | 2022-12-09 | 北京航空航天大学 | 一种基于语义先验和深度学习特征的鲁棒视觉slam方法 |
CN113744301A (zh) * | 2021-08-05 | 2021-12-03 | 深圳供电局有限公司 | 移动机器人的运动轨迹估计方法、装置和存储介质 |
CN115471731B (zh) * | 2022-08-23 | 2024-04-09 | 北京有竹居网络技术有限公司 | 图像处理方法、装置、存储介质及设备 |
-
2022
- 2022-08-23 CN CN202211014186.7A patent/CN115471731B/zh active Active
-
2023
- 2023-08-10 WO PCT/CN2023/112209 patent/WO2024041392A1/zh unknown
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107330973A (zh) * | 2017-07-03 | 2017-11-07 | 深圳市唯特视科技有限公司 | 一种基于多视角监督的单视角重建方法 |
CN111862213A (zh) * | 2020-07-29 | 2020-10-30 | Oppo广东移动通信有限公司 | 定位方法及装置、电子设备、计算机可读存储介质 |
CN113239629A (zh) * | 2021-06-03 | 2021-08-10 | 上海交通大学 | 一种轨迹空间行列式点过程的强化学习探索和利用的方法 |
CN113593035A (zh) * | 2021-07-09 | 2021-11-02 | 清华大学 | 一种运动控制决策生成方法、装置、电子设备及存储介质 |
CN113743417A (zh) * | 2021-09-03 | 2021-12-03 | 北京航空航天大学 | 语义分割方法和语义分割装置 |
CN114089752A (zh) * | 2021-11-11 | 2022-02-25 | 深圳市杉川机器人有限公司 | 机器人的自主探索方法、机器人及计算机可读存储介质 |
CN114372520A (zh) * | 2021-12-29 | 2022-04-19 | 同济大学 | 一种基于双智能体竞争强化学习的机器人路径探索方法 |
CN114782530A (zh) * | 2022-03-28 | 2022-07-22 | 杭州国辰机器人科技有限公司 | 室内场景下的三维语义地图构建方法、装置、设备及介质 |
CN114879660A (zh) * | 2022-04-14 | 2022-08-09 | 海南大学 | 一种基于目标驱动的机器人环境感知方法 |
Non-Patent Citations (2)
Title |
---|
Semantic Curiosity for Active Visual Learning;Devendra Singh Chaplot et al;《arXiv》;20200616;全文 * |
多机器人视觉同时定位与建图技术研究综述;阴贺生 等;《机械工程学报》;20220630;全文 * |
Also Published As
Publication number | Publication date |
---|---|
WO2024041392A1 (zh) | 2024-02-29 |
CN115471731A (zh) | 2022-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11189078B2 (en) | Automated understanding of three dimensional (3D) scenes for augmented reality applications | |
CN105721853B (zh) | 生成图像捕获指令的方法、系统和计算机可读存储设备 | |
CN113284240A (zh) | 地图构建方法及装置、电子设备和存储介质 | |
CN108604379A (zh) | 用于确定图像中的区域的系统及方法 | |
US20100182480A1 (en) | Image processing apparatus, image matching method, and computer-readable recording medium | |
DE102018132428A1 (de) | Photomosaische Bodenkartierung | |
CN105981368A (zh) | 在成像装置中的照片构图和位置引导 | |
CN101651804A (zh) | 信息处理装置、方法和程序 | |
CN104919791A (zh) | 图像处理设备、图像处理方法以及程序 | |
CN103516983A (zh) | 图像处理装置、摄像装置以及图像处理方法 | |
JP2006277666A (ja) | 表示画面上位置解析装置及び表示画面上位置解析プログラム | |
CA3105356A1 (en) | Synthesizing an image from a virtual perspective using pixels from a physical imager array | |
CN105791801A (zh) | 图像处理装置、图像拾取装置和图像处理方法 | |
JP2018156640A (ja) | 学習方法およびプログラム | |
US11449975B2 (en) | Object count estimation apparatus, object count estimation method, and computer program product | |
CN115471731B (zh) | 图像处理方法、装置、存储介质及设备 | |
US20230058876A1 (en) | Image processing method and apparatus based on image processing model, electronic device, storage medium, and computer program product | |
CN112000226A (zh) | 一种人眼视线估计方法、装置及视线估计系统 | |
CN111026115A (zh) | 一种基于深度学习的机器人避障控制方法及装置 | |
CN110992393B (zh) | 一种基于视觉的目标运动跟踪方法 | |
JP7196999B2 (ja) | オブジェクト検出・追跡装置、方法、およびプログラム | |
CN114881841A (zh) | 图像生成方法及其装置 | |
CN109544584B (zh) | 一种实现巡检稳像精度测量的方法及系统 | |
JP7040511B2 (ja) | 情報処理装置および方法 | |
CN115953339A (zh) | 图像融合处理方法、装置、设备、存储介质及芯片 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |