CN113256716B - 一种机器人的控制方法及机器人 - Google Patents
一种机器人的控制方法及机器人 Download PDFInfo
- Publication number
- CN113256716B CN113256716B CN202110428814.5A CN202110428814A CN113256716B CN 113256716 B CN113256716 B CN 113256716B CN 202110428814 A CN202110428814 A CN 202110428814A CN 113256716 B CN113256716 B CN 113256716B
- Authority
- CN
- China
- Prior art keywords
- robot
- full
- semantic map
- information
- semantic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 238000004590 computer program Methods 0.000 claims description 20
- 230000015654 memory Effects 0.000 claims description 16
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000004927 fusion Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000010276 construction Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000006978 adaptation Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/29—Geographical information databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本申请适用于人工智能技术领域,提供了一种机器人控制方法及机器人,包括:采集多模态信息;根据所述多模态信息确定全语义地图;根据所述全语义地图进行语义理解和轨迹预测,得到预测轨迹;根据所述预测轨迹进行动态路径规划和避障控制,以控制所述机器人移动,通过多模态信息来确定全语义地图,进而通过全语义地图进行语义理解和轨迹预测,再根据预测轨迹控制机器人进行动态路径规划和避障控制,能够使得机器人在面对复杂场景时也能够有效地避开障碍物,提高机器人在复杂场景下的自适应能力,避免机器人因无法避开障碍物而翻倒,导致机器人损坏或物品损坏的情况。
Description
技术领域
本申请属于人工智能技术领域,尤其涉及一种机器人的控制方法及机器人。
背景技术
自主移动机器人是指能够在没有人的操控下有目的的自主移动的机器人, 自主移动机器人越来越多地应用于公共场所、工作场所以及家庭服务中。例如, 自主移动机器人可用于安保巡查、物品运输、扫地清洁等。然而,目前的机器 人存在对周围环境的理解能力不足,在面对复杂的周围环境难以自适应移动的 问题,这容易造成机器人翻倒进而导致机器人或附近的物体受到损坏。
发明内容
有鉴于此,本申请实施例提供了一种控制方法、装置及机器人,以解决目 前的机器人存在对周围环境的理解能力不足,在面对复杂的周围环境难以自适 应移动的问题,这容易造成机器人翻倒进而导致机器人或附近的物体受到损坏 的问题。
第一方面,本申请实施例提供一种控制方法,应用于机器人,包括:
采集多模态信息;
根据所述多模态信息确定全语义地图;
根据所述全语义地图进行语义理解和轨迹预测,得到预测轨迹;
根据所述预测轨迹进行动态路径规划和避障控制,以控制所述机器人移动。
在第一方面的一种实现方式中,所述根据多模态信息确定全语义地图,包 括:
检测是否存在全语义地图;
若不存在所述全语义地图,则根据获取到的多模态信息构建所述全语义地 图。
在第一方面的一种实现方式中,所述若不存在所述全语义地图,则根据获 取到的多模态信息构建所述全语义地图,包括:
根据所述多模态信息构建局部场景物体模型;
根据所述局部场景物体模型得到全局语义地图。
在第一方面的一种实现方式中,所述多模态信息包括RGB图像,位姿信 息、深度图像以及激光点云信息,所述根据所述多模态信息构建局部场景物体 模型,包括:
通过所述RGB图像提取图像特征;
根据所述图像特征获取稀疏特征点云和相机姿态信息,得到一级模型;
基于所述一级模型将所述位姿信息和所述相机姿态信息进行加权融合;
将所述深度图像与所述稀疏特征点云进行匹配,得到二级模型;
将所述激光点云与所述二级模型进行融合,得到所述局部场景物体模型。
在第一方面的一种实现方式中,所述根据所述局部场景物体模型得到全局 语义地图,包括:
将RGB图像中的物体实例进行分割,并进行语义识别;
通过融合后的相机姿态信息将实例分割的语音信息投射到局部场景物体模 型中;
将带有语音信息的局部场景物体模型进行拼接,得到全局语义地图。
在第一方面的一种实现方式中,在检测是否存在全语义地图之后还包括:
若存在所述全语义地图,则读取所述全语义地图。
在第一方面的一种实现方式中,所述控制方法还包括:
基于所述全语义地图和所述多模态信息判断当前场景是否发生变化;
若当前场景发生变化,则根据获取到的多模态信息更新所述全语义地图。
第二方面,本申请实施例提供一种机器人,包括:
多模态信息采集模块,用于采集多模态信息;
地图确定模块,用于根据所述多模态信息确定全语义地图;
场景理解模块,用于根据所述全语义地图进行语义理解和轨迹预测,得到 预测轨迹;
自适应模块,用于根据所述预测轨迹进行动态路径规划和避障控制,以控 制所述机器人移动。
在第二方面的第一种实现方式中,上述地图确定模块可以包括多模态融合 三维建模模块和地图构建模块。
上述多模态融合三维建模模块用于融合多模态信息,结合融合信息将点云 拼接,并对拼接得到的点云模型的空洞进行填补优化,得到局部场景物体模型。
上述地图构建模块用于物体语义识别、动态物体识别和语义地图构建和更 新。
第三方面,本申请实施例提供一种机器人,所述机器人包括处理器、存储 器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理 器执行所述计算机程序时实现如第一方面或第一方面的任意可选方式所述的方 法。
第四方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读 存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面 或第一方面的任意可选方式所述的方法。
第五方面,本申请实施例提供一种计算机程序产品,当计算机程序产品在 机器人上运行时,使得机器人执行上述第一方面或第一方面的任意可选方式所 述的方法。
实施本申请实施例提供的一种机器人的控制方法及机器人、计算机可读存 储介质及计算机程序产品具有以下有益效果:
本申请实施例提供的一种机器人的控制方法及机器人,通过多模态信息来 确定全语义地图,进而通过全语义地图进行语义理解和轨迹预测,再根据预测 轨迹控制机器人进行动态路径规划和避障控制,能够使得机器人在面对复杂场 景时也能够有效地避开障碍物,提高机器人在复杂场景下的自适应能力,避免 机器人因无法避开障碍物而翻倒,导致机器人损坏或物品损坏的情况。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技 术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅 仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳 动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种机器人的结构示意图;
图2是本申请实施例提供一种机器人的控制方法的示意性流程图;
图3是本申请另一实施例提供的一种机器人的控制方法的示意性流程图;
图4是本申请另一实施例提供的一种机器人的结构示意图;
图5是本申请实施例提供的一种计算机可读存储介质的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术 之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当 清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中, 省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节 妨碍本申请的描述。
应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指 相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些 组合。另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第 二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
还应当理解,在本申请说明书中描述的参考“一个实施例”或“一些实施 例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特 征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例 中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例 中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具 有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强 调。
自主移动机器人大多配置有各种传感器,能够在没有人操纵的情况下有目 的(往目标位置)的自主移动。
现有的自主移动机器人的控制方法通常基于二维码视觉并结合机器人实时 定位与构图来实现引导控制。具体地,在构建的地图上用多个二维码标记引导 目标位置,控制机器人移动至二维码区域完成粗定位;然后机器人识别二维码, 根据识别到的二维码的姿态和二维码相对相机的空间位置调整机器人前进的速 度与方向,使机器人移动到目标位置。
然而上述方式需要额外的二维码标签配合摄影头进行视觉引导,使用比较 不便且配置困难。
为了降低配置难度,现有的另一种控制方法以机器人的当前位置为中心, 通过扫描更新可通过区域,根据更新后的可通过区域的边界更新临界点集,当 临界点集不为空时,对临界点集进行聚类,得到若干簇;从若干簇中选择一个 簇,将其中心坐标作为目标点;自动导航到目标点,将该目标点作为新的机器 人当前位置,并以新的机器人当前位置为中心,进行新一轮激光扫描,更新可通过区域,如此重复,直至所述临界点集为空,则完成目标区域的地图信息建 立。
然而上述方式存在自适应能力差,程序复杂,容易积累误差,致使长时导 航不准确的问题。
以上可以看出,随着机器人的使用环境变得越来越复杂,机器人由于不期 望的外部环境影响的干扰下,无法对突发情况作出适当的反应,这容易造成机 器人翻倒进而导致机器人或附近的物体受到损坏,甚至有可能在翻倒的时候砸 伤人,存在一定的安全隐患。
为了解决上述缺陷,本申请实施例提供了一种机器人的控制方法,通过采 集多模态信息来确定全局语义地图,再基于全局语义地图进行动态路径规划, 使得机器人能够在复杂环境下自适应地进行避障和自主导航移动,有效地解决 了目前的机器人控制方法存在的对周围环境的理解能力不足,在面对复杂的周围环境难以自适应移动的问题,避免机器人翻倒进而导致机器人或附近的物体 受到损坏的情况。
以下将对本申请实施例提供的机器人的控制方法及机器人进行详细的说 明:
请参阅图1,图1示出了本申请实施例提供的一种机器人的结构示意图。 如图1所示,机器人可以包括多模态信息采集模块110、多模态融合三维建模 模块120、地图构建模块130、场景理解模块140以及自主环境适应模块150。 上述多模态信息采集模块110通过上述多模态融合单位建模模块120与地图构 建模块130连接,上述地图构建模块130通过上述场景理解模块140与自主环 境适应模块150连接。
在具体应用中,上述多模态采集模块110用于采集多模态信息,上述多模 态信息可以包括但不限于RGB图像、激光点云、深度图像以及位姿信息。相应 的,上述多模态采集模块110可以包括相机111、激光雷达112、深度相机113 和惯性测量单元114(InertialMeasurement Unit,IMU)。
在具体应用中,上述相机111用于采集RGB图像。RGB即是代表红、绿、 蓝三个通道的颜色,RGB图像就是指每个像素点都用R/G/B的不同比例来表示 的图像。
上述激光雷达112用于采集激光点云。激光点云是指利用激光雷达采集得 到的物品外观表面特征的海量点集合。
上述深度相机113用于采集深度图像。深度图像(depth image)也称距离 图像,是指将从图像采集器到场景中各点(各个物体)的距离(深度)作为像 素点值的图像。
上述惯性测量单元114用于采集姿态信息。上述姿态信息可以是三轴姿态 角(或角速率)以及加速度信息。上述惯性测量单元114可以包含三个单轴的加 速度计和三个单轴的陀螺,加速度计检测物体在载体坐标系统独立三轴的加速度信号,而陀螺检测载体相对于导航坐标系的角速度信号,测量物体在三维空 间中的角速度和加速度,并以此解算出物体的姿态。
上述多模态融合三维建模模块120用于融合多模态信息,结合融合信息将 点云拼接,并对拼接得到的点云模型的空洞进行填补优化。
具体的,可以先通过三角网格针对封闭孔洞确定三角面片边界,检测孔洞; 再在孔洞多边形处快速生成新三角面片,形成初始网格;在融合最小二乘网络 与径向函数隐式曲面,利用最小二阶导数对曲面曲率径向最小化,并与原始网 格曲率变化趋势保持相同,进行平滑融合,实现激光点云孔洞修补。
地图构建模块130用于物体语义识别、动态物体识别和语义地图构建和更 新。
场景理解模块140用于地形状态识别和可通行区域只能识别,复杂环境下 语义理解及机器人轨迹预测。
上述自主环境适应模块150用于实现动态路径规划及避障,并根据规划路 径和避障功能控制机器人自主移动。
请参阅图2,图2示出了本申请实施例提供的一种控制方法的示意性流程 图,示例性的,以图1所示的机器人为例对上述控制方法进行说明如下:
如图2所示,上述控制方法可以包括S11~S14,详述如下:
S11:采集多模态信息。
在本申请实施例中,上述多模态信息可以由上述机器人的多模态采集模块 进行采集。
在本申请实施例中,上述多模态信息可以包括但不限于RGB图像、激光 点云、深度图像以及位姿信息。具体地,可以由设置在机器人上的相机、激光 雷达、深度相机以及惯性测量单元分别采集得到。
S12:根据所述多模态信息确定全语义地图。
在本申请实施例中,基于采集到的多模态信息就能够获取当前场景的全语 义地图。具体的,如果检测到存在全语义地图,则可以直接读取全语义地图。 如果检测到不存在全语义地图,则可以根据多模态信息构建出当前场景的全语 义地图。
请参阅图3,在本申请一实施例中,上述根据所述多模态信息确定全语义地 图可以包括以下步骤:
S21:检测是否存在全语义地图。
在具体应用中,可以预先确定存储全语义地图的位置,然后检测该存储位 置是否存储有当前场景下的全语义地图,若该存储位置存储有当前场景下的全 语义地图,则说明存在全语义地图,否则说明不存在全语义地图。
S22:若存在所述全语义地图,则读取所述全语义地图。
S23:若不存在所述全语义地图,则根据获取到的多模态信息构建所述全语 义地图。
上述S23具体可以包括以下步骤:
根据所述多模态信息构建局部场景物体模型;
根据所述局部场景物体模型得到全局语义地图。
在具体应用中,可以通过上述多模态融合三维建模模块对局部场景物体建 模,再通过地图构建模块构建全局语义地图。
具体地,上述根据所述多模态信息构建局部场景物体模型可以包括以下步 骤:
通过所述RGB图像提取图像特征;
根据所述图像特征获取稀疏特征点云和相机姿态信息,得到一级模型;
基于所述一级模型将所述位姿信息和所述相机姿态信息进行加权融合;
将所述深度图像与所述稀疏特征点云进行匹配,得到二级模型;
将所述激光点云与所述二级模型进行融合,得到所述局部场景物体模型。
具体地,上述根据根据所述局部场景物体模型得到全局语义地图可以包括 以下步骤:
将RGB图像中的物体实例进行分割,并进行语义识别;
通过融合后的相机姿态信息将实例分割的语音信息投射到局部场景物体模 型中;
将带有语音信息的局部场景物体模型进行拼接,得到全局语义地图。
S13:根据所述全语义地图进行语义理解和轨迹预测,得到预测轨迹。
在具体应用中,在确定了全语义地图后,就可以通过场景理解模块基于确 定的全语义地图进行语义理解和轨迹预测。
具体地,以激光雷达和视频流为基础,选取高帧率激光雷达数据和视频流 数据及低帧率激光雷达数据和视频流数据为双通道输入,并分别采用 Minkowski卷积提取差异性特征,采用二元注意力机制进行特征融合和增强, 再采用单级多框预测(Single ShotMultiBox Detector,SSD)方法获取目标语义 检测结果,最后采用长短时记忆神经网络(Long Short-Term Memory,LSTM) 方法获取细化后的语义信息和轨迹预测结果。需要说明的是,上述Minkowski 卷积、二元注意力机制、单级多框预测方法以及长短时记忆神经网络方法均为 本领域常用的神经网络模型,本申请对此不在加以赘述。
请参阅图3,在本申请一实施例中,在根据全语义地图进行语义理解和轨 迹预测,得到预测轨迹之前,还包括以下步骤:
S24:基于所述全语义地图和所述多模态信息判断当前场景是否发生变化。
通过相机,激光雷达,深度相机实时获取的信息与存储的全局语义地图比 对,判断当前场景是否发生变化。若激光雷达,深度相机实时获取的信息与存 储的全局语义地图不一致,则说明当前场景已经发送变化,否则说明当前场景 没有发生变化。
S25:若当前场景发生变化,则根据获取到的多模态信息更新所述全语义 地图。
如果判断当前场景发生了变化,则通过多模态融合三维建模模块对新增的 局部场景物体建模,然后通过地图构建模块更新全局语义地图。
S14:根据所述预测轨迹进行动态路径规划和避障控制,以控制所述机器 人移动。
在具体应用中,通过自主环境适应模块对得到的预测轨迹进行动态路径规 划及避障,并根据规划路径和避障功能控制机器人自主移动。
以上可以看出,本申请实施例提供的机器人的控制方法,通过多模态信息 来确定全语义地图,进而通过全语义地图进行语义理解和轨迹预测,再根据预 测轨迹控制机器人进行动态路径规划和避障控制,能够使得机器人在面对复杂 场景时也能够有效地避开障碍物,提高机器人在复杂场景下的自适应能力,避 免机器人因无法避开障碍物而翻倒,导致机器人损坏或物品损坏的情况。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后, 各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施 过程构成任何限定。
图4是本申请另一实施例提供的一种机器人的结构示意图。如图4所示, 该实施例提供的机器人4包括:处理器40、存储器41以及存储在所述存储器 41中并可在所述处理器40上运行的计算机程序42,例如多智能体系统的协同控制的程序。处理器40执行所述计算机程序42时实现上述各个多智能体系统 的网络参数更新方法实施例中的步骤,例如图1所示的S11~S14。或者,所述 处理器40执行所述计算机程序42时实现上述各机器人实施例中各模块/单元的 功能,例如图2所示单元21~24的功能。
示例性的,所述计算机程序42可以被分割成一个或多个模块/单元,所述 一个或者多个模块/单元被存储在所述存储器41中,并由处理器40执行,以完 成本申请。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机 程序指令段,该指令段用于描述所述计算机程序42在所述机器人4中的执行过 程。例如,所述计算机程序42可以被分割成第一获取单元和第一处理单元,各 单元具体功能请参阅图4对应地实施例中的相关描述,此处不赘述。
所述机器人可包括但不仅限于,处理器40、存储器41。本领域技术人员可 以理解,图4仅仅是机器人4的示例,并不构成对机器人4的限定,可以包括 比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述机 器人还可以包括输入输出设备、网络接入设备、总线等。
所称处理器40可以是中央处理单元(Central Processing Unit,CPU),还可 以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用 集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或 者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理 器也可以是任何常规的处理器等。
所述存储器41可以是所述机器人4的内部存储单元,例如机器人4的硬盘 或内存。所述存储器41也可以是所述机器人4的外部存储设备,例如所述机器 人4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字 (Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器41 还可以既包括所述机器人4的内部存储单元也包括外部存储设备。所述存储器 41用于存储所述计算机程序以及所述机器人所需的其他程序和数据。所述存储 器41还可以用于暂时地存储已经输出或者将要输出的数据。
本申请实施例还提供了一种计算机可读存储介质。请参阅图5,图5是本 申请实施例提供的一种计算机可读存储介质的结构示意图,如图5所示,计算 机可读存储介质5中存储有计算机程序51,计算机程序51被处理器执行时可 实现上述机器人的控制方法。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在机器人上 运行时,使得机器人执行时实现可实现上述多智能体系统的网络参数更新方法。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上 述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上 述功能分配由不同的功能单元、模块完成,即将所述机器人的内部结构划分成 不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各 功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在, 也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模 块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上 述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程, 在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详 述或记载的部分,可以参照其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示 例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来 实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用 和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现 所描述的功能,但是这种实现不应认为超出本申请的范围。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照 前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其 依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特 征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申 请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (8)
1.一种控制方法,其特征在于,应用于机器人,所述控制方法包括:
采集多模态信息;所述多模态信息包括RGB图像,位姿信息、深度图像以及激光点云信息;
根据所述多模态信息确定全语义地图;
根据所述全语义地图进行语义理解和轨迹预测,得到预测轨迹;
根据所述预测轨迹进行动态路径规划和避障控制,以控制所述机器人移动;
其中,所述根据所述多模态信息确定全语义地图,包括:在不存在全语义地图的情况下,根据以下步骤建立所述全语义地图:
通过所述RGB图像提取图像特征;
根据所述图像特征获取稀疏特征点云和相机姿态信息,得到一级模型;
基于所述一级模型将所述位姿信息和所述相机姿态信息进行加权融合;
将所述深度图像与所述稀疏特征点云进行匹配,得到二级模型;
将所述激光点云与所述二级模型进行融合,得到局部场景物体模型;
根据所述局部场景物体模型得到全局语义地图。
2.根据权利要求1所述的方法,其特征在于,所述根据多模态信息确定全语义地图,还包括:
检测是否存在全语义地图。
3.根据权利要求1所述的方法,其特征在于,所述根据所述局部场景物体模型得到全局语义地图,包括:
将RGB图像中的物体实例进行分割,并进行语义识别;
通过融合后的相机姿态信息将实例分割的语音信息投射到局部场景物体模型中;
将带有语音信息的局部场景物体模型进行拼接,得到全局语义地图。
4.根据权利要求2所述的方法,其特征在于,还包括:
若存在所述全语义地图,则读取所述全语义地图。
5.根据权利要求1至4任一项所述的方法,其特征在于,还包括:
基于所述全语义地图和所述多模态信息判断当前场景是否发生变化;
若当前场景发生变化,则根据获取到的多模态信息更新所述全语义地图。
6.一种机器人,其特征在于,包括:
多模态信息采集模块,用于采集多模态信息;所述多模态信息包括RGB图像,位姿信息、深度图像以及激光点云信息;
地图确定模块,用于根据所述多模态信息确定全语义地图;
场景理解模块,用于根据所述全语义地图进行语义理解和轨迹预测,得到预测轨迹;
自适应模块,用于根据所述预测轨迹进行动态路径规划和避障控制,以控制所述机器人移动;
其中,所述根据所述多模态信息确定全语义地图,包括:在不存在全语义地图的情况下,根据以下步骤建立所述全语义地图:
通过所述RGB图像提取图像特征;
根据所述图像特征获取稀疏特征点云和相机姿态信息,得到一级模型;
基于所述一级模型将所述位姿信息和所述相机姿态信息进行加权融合;
将所述深度图像与所述稀疏特征点云进行匹配,得到二级模型;
将所述激光点云与所述二级模型进行融合,得到局部场景物体模型;
根据所述局部场景物体模型得到全局语义地图。
7.一种机器人,其特征在于,所述机器人包括处理器、存储器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至5任一项所述的方法。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110428814.5A CN113256716B (zh) | 2021-04-21 | 2021-04-21 | 一种机器人的控制方法及机器人 |
PCT/CN2021/137304 WO2022222490A1 (zh) | 2021-04-21 | 2021-12-12 | 一种机器人的控制方法及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110428814.5A CN113256716B (zh) | 2021-04-21 | 2021-04-21 | 一种机器人的控制方法及机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113256716A CN113256716A (zh) | 2021-08-13 |
CN113256716B true CN113256716B (zh) | 2023-11-21 |
Family
ID=77221491
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110428814.5A Active CN113256716B (zh) | 2021-04-21 | 2021-04-21 | 一种机器人的控制方法及机器人 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN113256716B (zh) |
WO (1) | WO2022222490A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113256716B (zh) * | 2021-04-21 | 2023-11-21 | 中国科学院深圳先进技术研究院 | 一种机器人的控制方法及机器人 |
CN115439510B (zh) * | 2022-11-08 | 2023-02-28 | 山东大学 | 一种基于专家策略指导的主动目标跟踪方法及系统 |
CN117274353B (zh) * | 2023-11-20 | 2024-02-20 | 光轮智能(北京)科技有限公司 | 合成图像数据生成方法、控制装置及可读存储介质 |
CN117760437A (zh) * | 2023-12-20 | 2024-03-26 | 北京远舢智能科技有限公司 | 一种自动驾驶中的车辆定位方法、装置、电子设备及介质 |
CN117428792A (zh) * | 2023-12-21 | 2024-01-23 | 商飞智能技术有限公司 | 用于机器人的作业系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110220517A (zh) * | 2019-07-08 | 2019-09-10 | 紫光云技术有限公司 | 一种结合环境语意的室内机器人鲁棒slam方法 |
CN110275540A (zh) * | 2019-07-01 | 2019-09-24 | 湖南海森格诺信息技术有限公司 | 用于扫地机器人的语义导航方法及其系统 |
CN111609852A (zh) * | 2019-02-25 | 2020-09-01 | 北京奇虎科技有限公司 | 语义地图构建方法、扫地机器人及电子设备 |
CN111798475A (zh) * | 2020-05-29 | 2020-10-20 | 浙江工业大学 | 一种基于点云深度学习的室内环境3d语义地图构建方法 |
CN112683288A (zh) * | 2020-11-30 | 2021-04-20 | 北方工业大学 | 一种交叉口环境下辅助盲人过街的智能引导机器人系统及方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10991156B2 (en) * | 2018-12-05 | 2021-04-27 | Sri International | Multi-modal data fusion for enhanced 3D perception for platforms |
CN113256716B (zh) * | 2021-04-21 | 2023-11-21 | 中国科学院深圳先进技术研究院 | 一种机器人的控制方法及机器人 |
-
2021
- 2021-04-21 CN CN202110428814.5A patent/CN113256716B/zh active Active
- 2021-12-12 WO PCT/CN2021/137304 patent/WO2022222490A1/zh active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111609852A (zh) * | 2019-02-25 | 2020-09-01 | 北京奇虎科技有限公司 | 语义地图构建方法、扫地机器人及电子设备 |
CN110275540A (zh) * | 2019-07-01 | 2019-09-24 | 湖南海森格诺信息技术有限公司 | 用于扫地机器人的语义导航方法及其系统 |
CN110220517A (zh) * | 2019-07-08 | 2019-09-10 | 紫光云技术有限公司 | 一种结合环境语意的室内机器人鲁棒slam方法 |
CN111798475A (zh) * | 2020-05-29 | 2020-10-20 | 浙江工业大学 | 一种基于点云深度学习的室内环境3d语义地图构建方法 |
CN112683288A (zh) * | 2020-11-30 | 2021-04-20 | 北方工业大学 | 一种交叉口环境下辅助盲人过街的智能引导机器人系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113256716A (zh) | 2021-08-13 |
WO2022222490A1 (zh) | 2022-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113256716B (zh) | 一种机器人的控制方法及机器人 | |
US10192113B1 (en) | Quadocular sensor design in autonomous platforms | |
US10496104B1 (en) | Positional awareness with quadocular sensor in autonomous platforms | |
EP3317691B1 (en) | System and method for laser depth map sampling | |
JP6897668B2 (ja) | 情報処理方法および情報処理装置 | |
KR101725060B1 (ko) | 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
CN112740274B (zh) | 在机器人设备上使用光流传感器进行vslam比例估计的系统和方法 | |
EP3974778B1 (en) | Method and apparatus for updating working map of mobile robot, and storage medium | |
CN112740268B (zh) | 目标检测方法和装置 | |
Held et al. | Precision tracking with sparse 3d and dense color 2d data | |
CN110587597B (zh) | 一种基于激光雷达的slam闭环检测方法及检测系统 | |
Magree et al. | Monocular visual mapping for obstacle avoidance on UAVs | |
WO2024087962A1 (zh) | 车厢姿态识别系统、方法、电子设备及存储介质 | |
Ishihara et al. | Deep radio-visual localization | |
Manivannan et al. | Vision based intelligent vehicle steering control using single camera for automated highway system | |
CN110673607A (zh) | 动态场景下的特征点提取方法、装置、及终端设备 | |
CN114593735A (zh) | 一种位姿预测方法及装置 | |
CN117132980A (zh) | 标注模型训练方法、道路标注方法、可读介质和电子设备 | |
CN116109675A (zh) | 一种煤矿井下场景现实捕捉感知方法及设备 | |
CN113034538B (zh) | 一种视觉惯导设备的位姿跟踪方法、装置及视觉惯导设备 | |
KR20230036243A (ko) | 영상과 라이다를 이용한 실시간 3차원 물체 인식 및 추적 시스템 | |
KR101934297B1 (ko) | 3차원 LiDAR를 이용한 선분추출 기반의 교차로 인식 방법 | |
CN116576866B (zh) | 导航方法和设备 | |
CN115294234B (zh) | 图像的生成方法、装置、电子设备和存储介质 | |
Liu et al. | EM-EKF based visual SLAM for simple robot localization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |