CN110946511B - 打滑判断的方法、设备及存储介质 - Google Patents
打滑判断的方法、设备及存储介质 Download PDFInfo
- Publication number
- CN110946511B CN110946511B CN201811132778.2A CN201811132778A CN110946511B CN 110946511 B CN110946511 B CN 110946511B CN 201811132778 A CN201811132778 A CN 201811132778A CN 110946511 B CN110946511 B CN 110946511B
- Authority
- CN
- China
- Prior art keywords
- image
- robot
- determining
- effective light
- displacement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/24—Floor-sweeping machines, motor-driven
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4002—Installations of electric equipment
- A47L11/4008—Arrangements of switches, indicators or the like
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4061—Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
本申请实施例提供一种打滑判断的方法、设备及存储介质。在本申请实施例中,获取机器人动作过程中的多张环境图像;结合多张环境图像,确定机器人的动作状态;若机器人的动作状态为打滑状态,机器人执行脱困动作。本申请实施例先获取机器人过程中的多张环境图像,并根据获取的多张环境图像来确定机器人的动作状态,当检测到机器人的动作状态为打滑状态时,机器人执行脱困动作,恢复正常运行,采用本申请的打滑判断的方法,可以快速确定机器人的打滑动作并执行脱困动作,提供机器人的工作效率。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种打滑判断的方法、设备及存储介质。
背景技术
扫地机器人在遇到门槛、凳子等障碍物时,由于机器人的结构限制,难免会造成机器人打滑现象的发生。
目前,扫地机器人一般采用传感器来检测机器人是否存在打滑。常用的传感器有光流传感器、IMU(惯性测量单元),黑白轮等。
发明内容
本申请的多个方面提供一种打滑判断的方法、设备及存储介质,用以检测机器人在动作过程中的打滑现象,并在打滑现象检测到时执行脱困指令使机器人脱困。
本申请实施例提供一种打滑判断的方法,包括:
获取机器人动作过程中的多张环境图像;
结合所述多张环境图像,确定所述机器人的动作状态;
若所述机器人的动作状态为打滑状态,机器人执行脱困动作。
本申请实施例还提供一种基于机器人的打滑判断装置,包括:
获取模块,用于获取机器人动作过程中的多张环境图像;
确定模块,用于结合所述多张环境图像,确定所述机器人的动作状态;
执行模块,若所述机器人的动作状态为打滑状态,机器人执行脱困动作。
本申请实施例还提供一种机器人,包括:机械本体,所述机械本体上设有传感器,一个或多个处理器,以及一个或多个存储计算机程序的存储器;
所述传感器,用于获取机器人动作过程中的多张环境图像;
所述一个或多个处理器,用于执行所述计算机程序,以用于:
结合所述多张环境图像,确定所述机器人的动作状态;
若所述机器人的动作状态为打滑状态,机器人执行脱困动作。
本申请实施例还提供一种存储有计算机程序的计算机可读存储介质,其特征在于,当所述计算机程序被一个或多个处理器执行时,致使所述一个或多个处理器执行包括以下的动作:
获取机器人动作过程中的多张环境图像;
结合所述多张环境图像,确定所述机器人的动作状态;
若所述机器人的动作状态为打滑状态,机器人执行脱困动作。
本申请示例性实施例先获取机器人过程中的多张环境图像,并根据获取的多张环境图像来确定机器人的动作状态,当检测到机器人的动作状态为打滑状态时,机器人执行脱困动作,恢复正常运行,采用本申请的打滑判断的方法,可以快速确定机器人的打滑动作并执行脱困动作,提供机器人的工作效率。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请一示例性实施例提供的打滑判断的方法的流程示意图;
图2为本申请另一示例性实施例提供的打滑判断的方法的流程示意图;
图3为本申请一示例性实施例提供的确定机器人动作状态的方法的流程示意图;
图4为本申请一示例性实施例提供的计算有效光流点的位移的方法流程示意图;
图5为本申请另一示例性实施例提供的确定机器人动作状态的方法的流程示意图;
图6为本申请实施例提供的按第一图像图像质量进行分组后确定有效光流点的方法流程图;
图7为本申请一示例性实施例提供的打滑判断的方法流程图。
图8为本申请示例性实施例提供的一种基于机器人的打滑判断装置的结构示意图;
图9为本申请示例性实施例提供的一种机器人的结构框图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
目前,扫地机器人主要使用光流传感器、IMU(惯性测量单元)、黑白轮中的一种硬件来检测扫地机器人是否存在打滑现象。其中,光流传感器通过计算像素位移来判断机器是否移动,遇到特殊地面或地毯会失效;IMU则主要通过加速度计和陀螺仪来感知位置和姿态,容易产生漂移误差并且需要其他传感器辅助融合来达到稳定的输出效果;黑白轮通过光耦信号来检测打滑,但存在检测滞后性问题,无法做到实时打滑判断。
针对现有技术中存在的上述技术问题,本申请实施例提供一种解决方案,基本思路是:先获取机器人过程中的多张环境图像,并根据获取的多张环境图像来确定机器人的动作状态,当检测到机器人的动作状态为打滑状态时,机器人执行脱困动作,恢复正常运行,采用本申请的打滑判断的方法,可以快速确定机器人的打滑动作并执行脱困动作,提供机器人的工作效率。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义,“多种”一般包含至少两种,但是不排除包含至少一种的情况。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的商品或者系统中还存在另外的相同要素。
以下结合附图,详细说明本申请各实施例提供的技术方案。
图1为本申请示例性实施例提供的打滑判断的方法的流程示意图,如图1所示,该方法包括:
S101:获取机器人动作过程中的多张环境图像;
S102:结合多张环境图像,确定机器人的动作状态;
S103:若机器人的动作状态为打滑状态,机器人执行脱困动作。
本申请实施例的上述方法的执行主体可以为机器人,本申请对机器人的类型不做限定,可以为扫地机器人,跟随机器人,迎宾机器人等。
在本实施例中,获取机器人动作过程中的多张环境图像包括下列方式:
方式一,机器人在摄像头的摄像模式对环境采集一段时间内的视频图像,来获得多张环境图像。
方式二,机器人在摄像头的拍照模式下对环境进行多次拍照,来获得多张环境图像。其中,可以间隔固定时间内对环境进行连续拍照获得多张环境图像,也可以随机对环境进行拍照获得多张环境图像。
在上述实施例中,机器人可以在整个工作过程中采用图1所示打滑判断方法实时进行打滑判断,但是对机器人硬件资源的占用较大,影响机器人的数据处理速度。图2为本申请另一示例性实施例提供的打滑判断的方法的流程示意图,如图2所示,该方法包括:
S201:获取机器人动作过程中的多张环境图像;
S202:根据多张环境图像,检测打滑判断触发事件;
S203:当检测到打滑判断触发事件时,结合多张环境图像,确定机器人的动作状态;
S204:若机器人的动作状态为打滑状态,机器人执行脱困动作。
在本实施例中,首先机器人首先检测是否存在打滑判断触发事件,在检测到打滑判断触发事件时,再结合多张环境图像来确定机器人的动作状态。
在上述实施例中,检测打滑判断触发事件的一可选实施例为:根据多张环境图像中的环境信息定位机器人的位姿;当无法定位机器人的位姿时,确定检测到打滑判断触发事件。上述实施例中根据多张环境图像中的环境信息无法定位机器人的位姿,包括以下至少一种情况:机器人工作在空旷的房间里时,在此种情形下机器人获取的视觉特征较少,无法定位机器人的位姿;机器人卡在障碍物下方时,在此种情形下机器人虽然能够获取到视觉特征,但是不足以机器人输出稳定的机器位姿等。当机器人检测到打滑判断触发事件后,启动机器人动作状态的检测,进一步确认机器人是否处于打滑状态。
本实施例无需在机器人的整个工作过程中进行机器人的打滑判断,只有当检测到打滑判断触发事件后机器人才启动打滑判断流程对机器人的动作状态进行打滑判断,此种打滑判断的方法对硬件的占用率低,提高打滑判断的效率。
在上述各实施例中,需要结合多张环境图像,确定机器人的动作状态。图3为本申请一示例性实施例提供的确定机器人动作状态的方法的流程示意图,如图3所示,该方法包括:
S301:从多张图像中获取第一图像和第二图像;
S302:确定第一图像和第二图像共同包含的有效光流点;
S303:计算有效光流点在第一图像和第二图像中的位移;
S304:根据位移,确定机器人的动作状态。
在本实施例中,从多张图像中获取第一图像和第二图像的方式可以为:从视频流连续的多帧图像中选取相邻两帧图像;或者,从视频流连续的多帧图像中选取不相邻的两帧图像,例如,可以通过轮式里程计选取距离超过10CM的两帧图像;或者,从拍照获得的多张图像中选取相邻的两张图像;或者,从拍照获得的多张图像中选取不相邻的两张图像。
上述实施例中,在获取第一图像和第二图像后,再确定第一图像和第二图像中的有效光流点。利用图像识别技术,通过预先设定的第三阈值,提取满足第三阈值的第一图像中的光流点并作标记,提取第二图像中的光流点,在第二图像中追踪查找在第一图像中标记的光流点作为有效光流点,有效光流点即为在第一图像和第二图像中共同包含的光流点。需要说明的是,光流点为体现图像特征的关键点,光流点通常存在于图像中两个物体之间的界线上或者等。第一图像中光流点的个数可以通过事先设定的第三阈值或者设定光流点个数上限中的至少一种方式确定。
在本实施例中,在确定有效光流点后,计算有效光流点在第一图像和第二图像中的位移。图4为本申请一示例性实施例提供的计算有效光流点的位移的方法流程示意图,如图4所示,该方法包括:
S401:计算所有有效光流点在第一图像和第二图像中的位移;
S402:对所有有效光流点位移进行排序;
S403:选取中间部分的光流点位移做平均值运算,作为有效光流点在第一图像和第二图像中的位移。
在本实施例中,计算所有有效光流点在第一图像和第二图像中的位移,需要逐个计算每个有效光流点的位移,计算单个有效光流点的位移包括以下方式:
方式一:确定单个有效光流点在第一图像和第二图像在同一坐标系下的位置坐标,通过位置坐标计算单个有效光流点在第一图像和第二图像中的位移。
方式二:单个有效光流点在第一图像和第二图像之间进行比对,计算单个有效光流点在第一图像和第二图像之间位移的像素,通过单个有效光流点在第一图像和第二图像之间像素的差值来计算单个有效光流点在第一图像和第二图像中的位移。
在上述实施例中,对所有有效光流点位移进行排序,可以按照位移从高到低排序或者从低到高排序,接着对称选取中间部分的光流点位移做平均值运算,作为有效光流点在第一图像和第二图像中的位移。显然,也可以对所有光流点的位移做平均值运算,作为有效光流点在第一图像和第二图像中的位移。
图5为本申请另一示例性实施例提供的确定机器人动作状态的方法的流程示意图,如图5所示,该方法包括:
S501:从多张图像中获取第一图像和第二图像;
S502:统计第一图像中包含的光流点的个数,并根据第一图像中包含的光流点的个数确定图像质量分组;
S503:确定第一图像和第二图像共同包含的有效光流点;
S504:若有效光流点的个数大于图像质量分组对应的第一阈值,则计算有效光流点在第一图像和第二图像中的位移;
S505:根据位移,确定机器人的动作状态。
在本实施例中,在确定第一图像和第二图像共同包含的有效光流点之前,还需要进行统计第一图像中包含的光流点的个数,并根据第一图像中包含的光流点的个数确定图像质量分组。此外,每个图像质量分组对应不同的有效光流点个数的第一阈值。该方法对第一图像的图像质量进行分组,可以满足不同图像质量的图像的检测需求,提高打滑判断所采用的图像样本的范围,提高打滑判断效率。本申请对第一图像根据图像质量的分组情况不作限定,第一图像根据图像质量的分组数量可以根据实际情况而定。
在计算有效光流点在第一图像和第二图像中的位移后,根据该位移,确定机器人的动作状态。若有效光流点在第一图像和第二图像中的位移的小于第二阈值,则确定机器人的动作状态为打滑状态。有效光流点的位移可以间接反映机器人是否处于打滑状态,本申请采用有效光流点的位移来确定机器人是否处于打滑状态,稳定可靠。
当机器人检测到打滑状态时,机器人执行脱困动作。脱困动作的一可选实施例为,机器人随机选取脱困方向并沿脱困方向行走设定时间,直至脱困为止。例如,机器人先后退2秒左右,在随机选取脱困方向旋转90度,同时,机器人同时进行打滑判断,如果机器人仍处于打滑状态,再前进2秒,再随机选取脱困方向旋转90度,直至脱困为止。显然,机器人还可以采用其他脱困动作,例如当机器人卡入沙发下时,可以降低机身,后退设定时间从沙发下退出进行脱困等。
需要说明的是,上述第一阈值、第二阈值、第三阈值为用户提前设定,在此对上述的第一阈值、第二阈值、第三阈值的取值不作限定,可根据应用场景适应性设置。
图6为本申请实施例提供的按第一图像图像质量进行分组后确定有效光流点的方法流程图。图7为本申请示例性实施例提供的打滑判断的方法流程图。结合图6、7,下面以扫地机器人为例对本申请实施例提供的打滑判断的方法进行详细说明。
机器人上机械本体上设有摄像头,摄像头不仅可以实现VSLAM定位,同时实现机器人的打滑判断。摄像头在机器人的工作过程中通过摄制视频图像或者拍照来获得多张环境图像。
在基于VSLAM系统进行视觉定位的机器人中,当VSLAM系统正常运行的时候,不启动打滑判断,因为VSLAM系统正常工作时定位准确,可以由VSLAM定位数据,结合码盘定位数据判断出机器是否发生打滑,VSLAM定位数据为VSLAM系统计算得到的机器位置数据,码盘定位数据为通过轮式里程计计算得到的机器位置数据。当机器人工作在空旷的房间里时,在此种情形下机器人获取的视觉特征较少,无法定位机器人的位姿;或者机器人卡在障碍物下方时,在此种情形下机器人虽然能够获取到视觉特征,但是不足以机器人输出稳定的机器位姿等,在上述情形下,VSLAM系统无法正常工作,启动上述实施例的打滑判断的方法对机器人的动作状态进行检测。
从多张图像中通过轮式里程计选取距离超过10CM的两帧图像作为第一图像和第二图像;用户预先设定从第一图像中提取光流点的个数M上限为100个,将第一图像按图像质量分为三组,第一组图像从第一图像中提取到的光流个数区间为(30,100],第二组图像从第一图像中提取到的光流个数区间为(15,30],第三组图像从第一图像中提取到的光流个数区间为[7,15],第一组图像对应的第一阈值为15,第二组图像对应的第一阈值为6,第二组图像对应的第一阈值为3,从第二图像中追踪查找在第一图像中标记光流点作为有效光流点。
假设第一图像中提取到的光流点的个数M为40,则第一图像被划分至第一组图像中,从第二图像中查找到的有效光流点的个数N为10,小于第一组图像对应的第一阈值15,则判定机器人状态未发生打滑。
假设第一图像中提取到的光流点的个数M为20,则第一图像被划分至第二组图像中,从第二图像中查找到的有效光流点的个数N为7,大于第二组图像对应的第一阈值6,则计算有效光流点在第一图像和第二图像中的位移,根据该位移,确定机器人的动作状态。需要说明的是,有效光流点形成光流场,下面将有效光流点在第一图像和第二图像中的位移称为光流场的统计位移。
假设第一图像中提取到的光流点的个数M为10,则第一图像被划分至第三组图像中,从第二图像中查找到的有效光流点的个数N为4,大于第二组图像对应的第一阈值3,则计算有效光流点在第一图像和第二图像中的位移,根据该位移,确定机器人的动作状态。需要说明的是,有效光流点形成光流场,下面将有效光流点在第一图像和第二图像中的位移称为光流场的统计位移。
接着,计算所有有效光流点的位移,单个有效光流点在第一图像和第二图像之间进行比对,计算单个有效光流点在第一图像和第二图像之间位移的像素,通过单个有效光流点在第一图像和第二图像之间像素的差值来计算单个有效光流点在第一图像和第二图像中的位移。对所有有效光流点位移进行排序,可以按照位移从高到低排序或者从低到高排序,接着对称选取中间部分的光流点位移做平均值运算,作为光流场的统计位移。若有效光流点在第一图像和第二图像中的位移的小于第二阈值,则确定机器人的动作状态为打滑状态。机器人检测到打滑状态后,机器人随机选取脱困方向并沿脱困方向行走设定时间,直至脱困为止,例如,机器人先后退2秒左右,在随机选取脱困方向旋转90度,同时,机器人同时进行打滑判断,如果机器人仍处于打滑状态,再前进2秒,再随机选取脱困方向旋转90度,直至脱困为止。
下面结合不同场景的实施例对本申请打滑判断的方法作出说明。
应用场景1:在扫地机器人场景中,扫地机器人通过摄像头获取室内的多张室内布局图像,并通过多张室内布局图像中的环境信息定位扫地机器人的位姿,当扫地机器人被卡入沙发下面时,此时扫地机器人获取的视觉特征不足以输出稳定的机器位姿等,VSLAM系统无法正常工作,当无法定位扫地机器人的位姿时,确定检测到打滑判断触发事件,扫地机器人进行打滑判断,从多张室内布局图像中获取第一图像和第二图像,统计第一图像中包含的光流点的个数,并根据第一图像中包含的光流点的个数确定图像质量分组,确定第一图像和第二图像共同包含的有效光流点,若有效光流点的个数大于图像质量分组对应的第一阈值,则计算有效光流点在第一图像和第二图像中的位移;若有效光流点在第一图像和第二图像中的位移的小于第二阈值,确定扫地机器人的动作状态为打滑状态,之后,扫地机器人执行脱困动作,扫地机器人随机选取脱困方向并沿脱困方向行走设定时间,直至脱困为止。扫地机器人可以实时检测是否处于打滑状态,并在检测到打滑状态后,执行脱困动作,使得扫地机器人可以脱困,提高扫地机器人的清洁效率。
应用场景2:在商场导购场景中,商场导购机器人通过摄像头获取商场内部环境的多张商场环境图像,并通过多张商场环境图像中的环境信息定位商场导购机器人的位姿,当商场导购机器人遇到积水地面发生打滑时,此时商场导购机器人获取的视觉特征不足以输出稳定的机器位姿等,VSLAM系统无法正常工作,当无法定位商场导购机器人的位姿时,确定检测到打滑判断触发事件,商场导购机器人进行打滑判断,从多张商场环境图像中获取第一图像和第二图像,统计第一图像中包含的光流点的个数,并根据第一图像中包含的光流点的个数确定图像质量分组,确定第一图像和第二图像共同包含的有效光流点,若有效光流点的个数大于图像质量分组对应的第一阈值,则计算有效光流点在第一图像和第二图像中的位移。若有效光流点在第一图像和第二图像中的位移的小于第二阈值,确定商场导购机器人的动作状态为打滑状态,之后,商场导购机器人执行脱困动作,商场导购机器人随机选取脱困方向并沿脱困方向行走设定时间,直至脱困为止。商场导购机器人可以实时检测是否处于打滑状态,并在检测到打滑状态后,执行脱困动作,使得商场导购机器人可以脱困,提高商场导购机器人的服务效率。
图8为本申请示例性实施例提供的一种基于机器人的打滑判断装置的结构示意图。该装置可以作为机器人的内部模块实现;或者,也可以独立于机器人,与机器人通信连接,并可对机器人进行控制。如图8所示,该装置包括:
获取模块81,用于获取机器人动作过程中的多张环境图像;
确定模块82,用于结合多张环境图像,确定机器人的动作状态;
执行模块83,若机器人的动作状态为打滑状态,机器人执行脱困动作。
可选地,该打滑判断装置还包括:检测模块84,在结合多张环境图像,确定机器人的动作状态之前,检测模块84根据多张环境图像,检测打滑判断触发事件;当检测到打滑判断触发事件时,启动确定模块82,结合多张环境图像,确定机器人的动作状态。
可选地,检测模块84,根据多张环境图像,检测打滑判断触发事件,可用于:根据多张环境图像中的环境信息定位机器人的位姿;当无法定位机器人的位姿时,确定检测到打滑判断触发事件。
可选地,确定模块82,结合多张环境图像,确定机器人的动作状态,可用于:从多张图像中获取第一图像和第二图像;确定第一图像和第二图像共同包含的有效光流点;计算有效光流点在第一图像和第二图像中的位移;根据位移,确定机器人的动作状态。
可选地,确定模块82,在确定第一图像和第二图像共同包含的有效光流点之前,还用于:统计第一图像中包含的光流点的个数,并根据第一图像中包含的光流点的个数确定图像质量分组;若有效光流点的个数大于图像质量分组对应的第一阈值,则计算有效光流点在第一图像和第二图像中的位移。
可选地,确定模块82,计算有效光流点在第一图像和第二图像中的位移,可用于:计算所有有效光流点在第一图像和第二图像中的位移;对所有有效光流点位移进行排序;选取中间部分的光流点位移做平均值运算,作为有效光流点在第一图像和第二图像中的位移。
可选地,确定模块82,根据位移,确定机器人的动作状态,可用于:若有效光流点在第一图像和第二图像中的位移的小于第二阈值,则确定机器人的动作状态为打滑状态。
可选地,执行模块83,机器人执行脱困动作,可用于:机器人随机选取脱困方向并沿脱困方向行走设定时间,直至脱困为止。
图9为本申请示例性实施例提供的一种机器人的结构框图。如图9所示,该机器人包括:机械本体901;机械本体901上设有一个或多个处理器903和一个或多个存储计算机指令的存储器904。除此之外,机械本体901上还设有传感器902。该传感器902为视觉传感器902,例如,摄像头、相机等,在机器人工作过程中,用于采集机器人动作过程中的多张环境图像。
机械本体901上除了设有一个或多个处理器903以及一个或多个存储器904之外,还设置有机器人的一些基本组件,例如音频组件、电源组件、里程计、驱动组件等等。音频组件,该音频组件,可被配置为输出和/或输入音频信号。例如,音频组件包括一个麦克风(MIC),当音频组件所在设备处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器或经由通信组件发送。在一些实施例中,音频组件还包括一个扬声器,用于输出音频信号。传感器902还可以包括激光雷达传感器902、干湿度传感器902等,视觉传感器902可以是摄像头、相机等。可选地,驱动组件可以包括驱动轮、驱动电机、万向轮等。可选地,清扫组件可以包括清扫电机、清扫刷、起尘刷、吸尘风机等。不同机器人所包含的这些基本组件以及基本组件的构成均会有所不同,本申请实施例仅是部分示例。
值得说明的是,音频组件、传感器902、一个或多个处理器903、一个或多个存储器904可设置于机械本体901内部,也可以设置于机械本体901的表面。
机械本体901是机器人赖以完成作业任务的执行机构,可以在确定的环境中执行处理器903指定的操作。其中,机械本体一定程度上体现了机器人的外观形态。在本实施例中,并不限定机器人的外观形态,例如可以是圆形、椭圆形、三角形、凸多边形等。
一个或多个存储器904,主要用于存储计算机程序,该计算机程序可被一个或多个处理器903执行,致使一个或多个处理器904可以打滑判断操作。除了存计算机程序之外,一个或多个存储器904还可被配置为存储其它各种数据以支持在机器人上的操作。
一个或多个处理器903,可以看作是机器人的控制系统,可用于执行一个或多个存储器904中存储的计算机程序,以对机器人进行文本修正操作。其中,一个或多个存储器904中可以存储不同的计算机程序,这样一个或多个处理器903可以执行不同计算机程序,采用不同的方式文本进行修正。
处理器903例如,一个或多个存储器904中存储计算机程序,一个或多个处理器903可以执行计算机程序,可用于:
结合多张环境图像,确定机器人的动作状态;
若机器人的动作状态为打滑状态,机器人执行脱困动作。
可选地,一个或多个处理器903,在结合多张环境图像,确定机器人的动作状态之前,还可用于:根据多张环境图像,检测打滑判断触发事件;当检测到打滑判断触发事件时,结合多张环境图像,确定机器人的动作状态。
可选地,一个或多个处理器903,根据多张环境图像,检测打滑判断触发事件,还可用于:根据多张环境图像中的环境信息定位机器人的位姿;当无法定位机器人的位姿时,确定检测到打滑判断触发事件。
可选地,一个或多个处理器903,结合多张环境图像,确定机器人的动作状态,还可用于:从多张图像中获取第一图像和第二图像;确定第一图像和第二图像共同包含的有效光流点;计算有效光流点在第一图像和第二图像中的位移;根据位移,确定机器人的动作状态。
可选地,一个或多个处理器903,在确定第一图像和第二图像共同包含的有效光流点之前,还可用于:统计第一图像中包含的光流点的个数,并根据第一图像中包含的光流点的个数确定图像质量分组;若有效光流点的个数大于图像质量分组对应的第一阈值,则计算有效光流点在第一图像和第二图像中的位移。
可选地,一个或多个处理器903,计算有效光流点在第一图像和第二图像中的位移,还可用于:计算所有有效光流点在第一图像和第二图像中的位移;对所有有效光流点位移进行排序;选取中间部分的光流点位移做平均值运算,作为有效光流点在第一图像和第二图像中的位移。
可选地,一个或多个处理器903,根据位移,确定机器人的动作状态,还可用于:若有效光流点在第一图像和第二图像中的位移的小于第二阈值,则确定机器人的动作状态为打滑状态。
可选地,一个或多个处理器903,机器人执行脱困动作,还可用于:机器人随机选取脱困方向并沿脱困方向行走设定时间,直至脱困为止。
相应地,本申请实施例还提供一种存储有计算机程序的计算机可读存储介质。当计算机可读存储介质存储计算机程序,且计算机程序被一个或多个处理器903执行时,致使一个或多个处理器903执行相应图1所示方法实施例中的各步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (9)
1.一种打滑判断的方法,其特征在于,包括:
获取机器人动作过程中的多张环境图像;
从多张图像中获取第一图像和第二图像;
确定第一图像和第二图像共同包含的有效光流点;
计算所述有效光流点在第一图像和第二图像中的位移;
若有效光流点在第一图像和第二图像中的位移的小于第二阈值,则确定机器人的动作状态为打滑状态;
机器人执行脱困动作。
2.根据权利要求1所述的方法,其特征在于,在结合所述多张环境图像,确定所述机器人的动作状态之前,还包括:
根据所述多张环境图像,检测打滑判断触发事件;
当检测到打滑判断触发事件时,结合所述多张环境图像,确定所述机器人的动作状态。
3.根据权利要求2所述的方法,其特征在于,根据所述多张环境图像,检测打滑判断触发事件,包括:
根据多张环境图像中的环境信息定位机器人的位姿;
当无法定位机器人的位姿时,确定检测到打滑判断触发事件。
4.根据权利要求1所述的方法,在确定第一图像和第二图像共同包含的有效光流点之前,还包括:
统计所述第一图像中包含的光流点的个数,并根据所述第一图像中包含的光流点的个数确定图像质量分组;
若有效光流点的个数大于所述图像质量分组对应的第一阈值,则计算所述有效光流点在第一图像和第二图像中的位移。
5.根据权利要求1所述的方法,其特征在于,计算所述有效光流点在第一图像和第二图像中的位移,包括:
计算所有有效光流点在第一图像和第二图像中的位移;
对所有有效光流点位移进行排序;
选取中间部分的光流点位移做平均值运算,作为有效光流点在第一图像和第二图像中的位移。
6.根据权利要求1所述的方法,其特征在于,机器人执行脱困动作,包括:
机器人随机选取脱困方向并沿脱困方向行走设定时间,直至脱困为止。
7.一种基于机器人的打滑判断装置,其特征在于,包括:
获取模块,用于获取机器人动作过程中的多张环境图像;
确定模块,用于从多张图像中获取第一图像和第二图像;确定第一图像和第二图像共同包含的有效光流点;计算所述有效光流点在第一图像和第二图像中的位移;若有效光流点在第一图像和第二图像中的位移的小于第二阈值,则确定机器人的动作状态为打滑状态;
执行模块,机器人执行脱困动作。
8.一种机器人,其特征在于,包括:机械本体,所述机械本体上设有传感器,一个或多个处理器,以及一个或多个存储计算机程序的存储器;
所述传感器,用于获取机器人动作过程中的多张环境图像;
所述一个或多个处理器,用于执行所述计算机程序,以用于:
获取机器人动作过程中的多张环境图像;
从多张图像中获取第一图像和第二图像;
确定第一图像和第二图像共同包含的有效光流点;
计算所述有效光流点在第一图像和第二图像中的位移;
若有效光流点在第一图像和第二图像中的位移的小于第二阈值,则确定机器人的动作状态为打滑状态;
机器人执行脱困动作。
9.一种存储有计算机程序的计算机可读存储介质,其特征在于,当所述计算机程序被一个或多个处理器执行时,致使所述一个或多个处理器执行包括以下的动作:
获取机器人动作过程中的多张环境图像;
从多张图像中获取第一图像和第二图像;
确定第一图像和第二图像共同包含的有效光流点;
计算所述有效光流点在第一图像和第二图像中的位移;
若有效光流点在第一图像和第二图像中的位移的小于第二阈值,则确定机器人的动作状态为打滑状态;
机器人执行脱困动作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811132778.2A CN110946511B (zh) | 2018-09-27 | 2018-09-27 | 打滑判断的方法、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811132778.2A CN110946511B (zh) | 2018-09-27 | 2018-09-27 | 打滑判断的方法、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110946511A CN110946511A (zh) | 2020-04-03 |
CN110946511B true CN110946511B (zh) | 2021-10-15 |
Family
ID=69967946
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811132778.2A Active CN110946511B (zh) | 2018-09-27 | 2018-09-27 | 打滑判断的方法、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110946511B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114911225B (zh) * | 2021-02-23 | 2023-08-15 | 北京盈迪曼德科技有限公司 | 一种双轮差速机器人打滑判定方法及装置 |
US11521332B1 (en) * | 2021-06-29 | 2022-12-06 | Midea Group Co., Ltd. | Method and apparatus for optimization of a monocular visual-inertial localization system |
US11756231B2 (en) | 2021-06-29 | 2023-09-12 | Midea Group Co., Ltd. | Method and apparatus for scale calibration and optimization of a monocular visual-inertial localization system |
CN113729578B (zh) * | 2021-08-04 | 2022-12-06 | 深圳创动科技有限公司 | 清洁机器人及其运动状态监测方法、服务器以及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1413809A (zh) * | 2001-10-24 | 2003-04-30 | 吴志明 | 大楼环保清洗机器人控制方法以及采用所述方法的机器人 |
CN1864620A (zh) * | 2005-05-17 | 2006-11-22 | Lg电子株式会社 | 机器人清洁器 |
JP2010172441A (ja) * | 2009-01-29 | 2010-08-12 | Panasonic Corp | 自走式掃除機 |
WO2015071814A1 (en) * | 2013-11-13 | 2015-05-21 | Montaldi Bianca | Self-moving machine for washing and drying floors |
CN108491762A (zh) * | 2018-02-27 | 2018-09-04 | 浙江大华技术股份有限公司 | 一种人体跌倒的检测方法及装置 |
CN108553041A (zh) * | 2018-03-19 | 2018-09-21 | 珠海市微半导体有限公司 | 一种机器人被困的判断方法及其脱困的控制方法 |
-
2018
- 2018-09-27 CN CN201811132778.2A patent/CN110946511B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1413809A (zh) * | 2001-10-24 | 2003-04-30 | 吴志明 | 大楼环保清洗机器人控制方法以及采用所述方法的机器人 |
CN1864620A (zh) * | 2005-05-17 | 2006-11-22 | Lg电子株式会社 | 机器人清洁器 |
JP2010172441A (ja) * | 2009-01-29 | 2010-08-12 | Panasonic Corp | 自走式掃除機 |
WO2015071814A1 (en) * | 2013-11-13 | 2015-05-21 | Montaldi Bianca | Self-moving machine for washing and drying floors |
CN108491762A (zh) * | 2018-02-27 | 2018-09-04 | 浙江大华技术股份有限公司 | 一种人体跌倒的检测方法及装置 |
CN108553041A (zh) * | 2018-03-19 | 2018-09-21 | 珠海市微半导体有限公司 | 一种机器人被困的判断方法及其脱困的控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110946511A (zh) | 2020-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110946511B (zh) | 打滑判断的方法、设备及存储介质 | |
US11314262B2 (en) | Autonomous platform guidance systems with task planning and obstacle avoidance | |
US10571926B1 (en) | Autonomous platform guidance systems with auxiliary sensors and obstacle avoidance | |
US10571925B1 (en) | Autonomous platform guidance systems with auxiliary sensors and task planning | |
US11747823B2 (en) | Monocular modes for autonomous platform guidance systems with auxiliary sensors | |
KR101725060B1 (ko) | 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
KR101776622B1 (ko) | 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
KR101784183B1 (ko) | ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
CN107390721B (zh) | 机器人随行控制方法、装置及机器人 | |
KR101708659B1 (ko) | 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법 | |
CN110968083B (zh) | 栅格地图的构建方法、避障的方法、设备及介质 | |
KR20180134683A (ko) | 인공지능 이동 로봇의 제어 방법 | |
CN111103875B (zh) | 避让的方法、设备及存储介质 | |
KR102629036B1 (ko) | 로봇 및 그의 제어 방법 | |
CN113561963A (zh) | 一种泊车方法、装置及车辆 | |
US11774983B1 (en) | Autonomous platform guidance systems with unknown environment mapping | |
CN111700553B (zh) | 避障方法、装置、机器人和存储介质 | |
WO2023019922A1 (zh) | 导航方法及自行走装置 | |
EP4089649A1 (en) | Neuromorphic cameras for aircraft | |
KR102467990B1 (ko) | 로봇 청소기 | |
JP7354528B2 (ja) | 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム | |
NL2019877B1 (en) | Obstacle detection using horizon-based learning | |
WO2019202878A1 (en) | Recording medium, information processing apparatus, and information processing method | |
JP7327596B2 (ja) | 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム | |
WO2023286378A1 (ja) | 移動体、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |