CN110509293A - 工作环境分析方法、装置及机器人 - Google Patents
工作环境分析方法、装置及机器人 Download PDFInfo
- Publication number
- CN110509293A CN110509293A CN201910843708.6A CN201910843708A CN110509293A CN 110509293 A CN110509293 A CN 110509293A CN 201910843708 A CN201910843708 A CN 201910843708A CN 110509293 A CN110509293 A CN 110509293A
- Authority
- CN
- China
- Prior art keywords
- area
- working environment
- robot
- feasible solutions
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/028—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring lateral position of a boundary of the object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及机器人技术领域,具体而言,涉及一种工作环境分析方法、装置及机器人。工作环境分析方法,包括:获取机器人所在工作环境的可行区域图像,以及可行区域图像中,每个通道空间点对应的通道宽度值,并确定出经过机器人的预规划路线的所有通道空间点,作为第一目标空间点,再根据每个第一目标空间点对应的通道宽度值,对机器人所在工作环境的可行区域进行宽度分析,获得分析结果。本申请实施例提供的工作环境分析方法能够提高机器人的工作环境分析效率。
Description
技术领域
本申请涉及机器人技术领域,具体而言,涉及一种工作环境分析方法、装置及机器人。
背景技术
机器人是自动执行工作的机器装置,它既可以接受人类指挥,又可以运行预先编排的程序,也可以根据以人工智能技术制定的原则纲领行动,能够应用于服务业、生产业、建筑业,以协助或取代人类工作。现有技术中,机器人往往是通过深度学习实现工作环境分析,以根据分析结果确定行进策略的。但,深度学习方式对于计算资源的消耗较大,因此,也存在分析效率低下的弊端。
发明内容
本申请实施例的目的在于,提供一种工作环境分析方法、装置及机器人,以提高机器人的工作环境分析效率。
第一方面,本申请实施例提供了一种工作环境分析方法,包括:
获取机器人所在工作环境的可行区域图像;
获得所述可行区域图像中,每个通道空间点对应的通道宽度值;
确定出经过所述机器人的预规划路线的所有通道空间点,作为第一目标空间点;
根据每个所述第一目标空间点对应的通道宽度值,对所述机器人所在工作环境的可行区域进行宽度分析,获得分析结果。
本申请实施例提供的工作环境分析方法,能够获取机器人所在工作环境的可行区域图像,以及可行区域图像中,每个通道空间点对应的通道宽度值,再确定出经过机器人的预规划路线的所有通道空间点,作为第一目标空间点,根据每个第一目标空间点对应的通道宽度值,对机器人所在工作环境的可行区域进行宽度分析,获得分析结果。显然,本申请实施例中提供的工作环境分析方法,能够通过获取的每个第一目标空间点对应的通道宽度值,实现对机器人的工作环境进行分析的目的,相对于现有技术中,通过深度学习实现对机器人的工作环境进行分析的方案而言,降低了计算资源的消耗,因此,能够有效提高机器人的工作环境分析效率。
结合第一方面,本申请实施例还提供了第一方面的第一种可选的实施方式,所述获取机器人所在工作环境的可行区域图像,包括:
获取所述机器人所在工作环境的栅格图像;
对所述栅格图像进行二值化处理,获得二值图像,所述二值图像中包括第一边缘线、第二边缘线,以及位于所述第一边缘线和所述第二边缘线之间的可行区域;
在所述二值图像中,对所述可行区域中包括的每个可行空间点进行距离变换处理,获得所述可行区域图像。
本申请实施例中,获取机器人所在工作环境的可行区域图像,包括:获取机器人所在工作环境的栅格图像,对栅格图像进行二值化处理,获得二值图像,二值图像中包括第一边缘线、第二边缘线,以及位于第一边缘线和第二边缘线之间的可行区域,以及在二值图像中,对可行区域中包括的每个可行空间点进行距离变换处理,获得可行区域图像。显然,获得可行区域图像主要包括对栅格图像进行二值化处理,以及对可行区域中包括的每个可行空间点进行距离变换处理,整个处理过程相对简单快捷,因此,能够有效提高机器人的工作环境分析效率。
结合第一方面的第一种可选的实施方式,本申请实施例还提供了第一方面的第二种可选的实施方式,所述对所述可行区域中包括的每个可行空间点进行距离变换处理,获得所述可行区域图像,包括:
针对每个所述可行空间点,获得所述可行空间点与所述第一边缘线和所述第二边缘线之间的最小距离值,作为参考距离值;
根据所述参考距离值设定所述可行空间点的灰度值,获得所述可行区域图像。
本申请实施例中,对可行区域中包括的每个可行空间点进行距离变换处理,获得可行区域图像,包括:针对每个可行空间点,获得可行空间点与第一边缘线和第二边缘线之间的最小距离值,作为参考距离值,以及根据参考距离值设定可行空间点的灰度值,获得可行区域图像。显然,获得可行区域图像的具体处理过程同样相对简单快捷,因此,能够有效提高机器人的工作环境分析效率。
结合第一方面的第二种可选的实施方式,本申请实施例还提供了第一面的第三种可选的实施方式,所述获得所述可行区域图像中,每个通道空间点对应的通道宽度值,包括:
对所述可行区域图像进行骨架提取处理,获得所述可行区域图像的骨架线,经过所述骨架线的通道空间点为第二目标空间点;
针对每个所述第二目标空间点,获取经过所述第二目标空间点,且垂直于所述骨架线的宽度度量线;
将所述第二目标空间点对应的灰度值,作为经过所述宽度度量线的所有通道空间点的灰度值;
针对经过所述宽度度量线的每个通道空间点,根据所述通道空间点的灰度值,获得所述通道空间点对应的通道宽度值。
本申请实施例中,获得可行区域图像中,每个通道空间点对应的通道宽度值,包括:对可行区域图像进行骨架提取处理,获得可行区域图像的骨架线,经过骨架线的通道空间点为第二目标空间点,针对每个第二目标空间点,获取经过第二目标空间点,且垂直于骨架线的宽度度量线,以及将第二目标空间点对应的灰度值,作为经过宽度度量线的所有通道空间点的灰度值,并针对经过宽度度量线的每个通道空间点,根据通道空间点的灰度值,获得通道空间点对应的通道宽度值。如此,在后续确定出经过机器人的预规划路线的所有通道空间点,作为第一目标空间点之后,便可以简单快捷的获得每个第一目标空间点对应的通道宽度值,从而有效提高机器人的工作环境分析效率。
结合第一方面,本申请实施例还提供了第一方面的第四种可选的实施方式,所述根据每个所述第一目标空间点对应的通道宽度值,对所述机器人所在工作环境的可行区域进行宽度分析,获得分析结果,包括:
获得所有所述第一目标空间点对应的通道宽度值的方差值;
根据所述方差值,对所述机器人所在工作环境的可行区域进行宽度分析,获得分析结果。
本申请实施例中,根据每个第一目标空间点对应的通道宽度值,对机器人所在工作环境的可行区域进行宽度分析,获得分析结果,包括:获得所有第一目标空间点对应的通道宽度值的方差值,根据方差值,对机器人所在工作环境的可行区域进行宽度分析,获得分析结果。由于方差值的求取过程简单,且根据方差值足以判断所有第一目标空间点的离散情况,以进一步对所述机器人的工作环境进行分析,获得分析结果,因此,能够有效提高机器人的工作环境分析效率。
结合第一方面的第四种可选的实施方式,本申请实施例还提供了第一面的第五种可选的实施方式,所述根据所述方差值,对所述机器人所在工作环境的可行区域进行宽度分析,获得分析结果,包括:
判断所述方差值是否位于预设方差范围内;
若所述方差值位于预设方差范围内,则生成用于指示所述可行区域宽阔且无障碍的第一分析结果;
若所述方差值超过预设方差范围,则生成用于指示所述可行区域狭隘和/或有障碍的第二分析结果。
本申请实施例中,根据方差值,对机器人的工作环境进行分析,获得分析结果,包括:判断方差值是否位于预设方差范围内,若方差值位于预设方差范围内,则生成用于指示可行区域宽阔且无障碍的第一分析结果,若方差值超过预设方差范围,则生成用于指示可行区域狭隘和/或有障碍的第二分析结果。显然,根据方差值对机器人的工作环境进行分析,获得分析结果的过程,可以只包括简单的阈值比较,判断过程简单快捷,因此,能够有效提高机器人的工作环境分析效率。
结合第一方面,本申请实施例还提供了第一面的第六种可选的实施方式,所述根据每个所述第一目标空间点对应的通道宽度值,对所述机器人所在工作环境的可行区域进行宽度分析,获得分析结果之后,所述方法还包括:
获得与所述分析结果对应的行进策略;
使所述机器人根据所述行进策略,沿所述预规划路线行进。
本申请实施例提供的工作环境分析方法在根据每个第一目标空间点对应的通道宽度值,对机器人所在工作环境的可行区域进行宽度分析,获得分析结果之后,还包括:获得与分析结果对应的行进策略,以使机器人根据行进策略,沿预规划路线行进,从而增强机器人的智能化程度。
第二方面,本申请实施例还提供了一种工作环境分析装置,包括:
图像获取模块,用于获取机器人所在工作环境的可行区域图像;
宽度值获取模块,用于获得所述可行区域图像中,每个通道空间点对应的通道宽度值;
空间点确定模块,用于确定出经过所述机器人的预规划路线的所有通道空间点,作为第一目标空间点;
分析结果获取模块,用于根据每个所述第一目标空间点对应的通道宽度值,对所述机器人所在工作环境的可行区域进行宽度分析,获得分析结果。
第三方面,本申请实施例还提供了一种机器人,包括处理器和存储器,所述存储器上存储有计算机程序,所述处理器用于执行所述计算机程序,以实现上述第一方面,或第一方面的任意一种可选的实施方式所提供的工作环境分析方法。
第四方面,本申请实施例中还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被执行时,可实现上述第一方面,或第一方面的任意一种可选的实施方式所提供的工作环境分析方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种机器人的示意性结构框图。
图2为本申请实施例提供的一种工作环境分析方法的步骤流程图。
图3为图2中步骤S100的子步骤流程图。
图4为本申请实施例提供的一种二值图像。
图5为本申请实施例提供的一种可行区域图像。
图6为图2中步骤S200的子步骤流程图。
图7为图5中可行区域图像的骨架线示意图。
图8为图2中步骤S400的子步骤流程图。
图9为本申请实施例提供的工作环境分析方法的另一种步骤流程图。
图10为本申请实施例提供的一种工作环境分析装置的示意性结构框图。
图11为本申请实施例提供的一种图像获取模块的示意性结构框图。
图12为本申请实施例提供的一种宽度值获取模块的示意性结构框图。
图13为本申请实施例提供的一种分析结果模块的示意性结构框图。
图14为本申请实施例提供的工作环境分析装置的另一种示意性结构框图。
附图标记:100-机器人;110-处理器;120-存储器;200-工作环境分析装置;210-图像获取模块;211-栅格图像获取单元;212-二值图像获取单元;213-可行区域图像获取单元;220-宽度值获取模块;221-骨架提取单元;222-宽度度量线获取单元;223-灰度值获取单元;224-通道宽度值获取单元;230-空间点确定模块;240-分析结果获取模块;241-方差值获取单元;242-分析结果获取单元;250-策略获取模块;260-行进控制模块。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
请参阅图1,为本申请实施例提供的一种应用工作环境分析方法及装置的机器人100的示意性结构框图。本申请实施例中,机器人100可以是,但不限于服务机器人、工业机器人,在结构上,机器人100可以包括处理器110和存储器120。
处理器110与存储器120直接或间接地电性连接,以实现数据的传输或交互,例如,这些元件相互之间可通过一条或多条通讯总线或信号线实现电性连接。工作环境分析装置200包括至少一个可以软件或固件(Firmware)的形式存储在存储器120中或固化在机器人100的操作系统(Operating System,OS)中的软件模块。处理器110用于执行存储器120中存储的可执行模块,例如,工作环境分析装置200所包括的软件功能模块及计算机程序等,以实现工作环境分析方法。处理器110可以在接收到执行指令后,执行计算机程序。
其中,处理器110可以是一种集成电路芯片,具有信号处理能力。处理器110也可以是通用处理器,例如,可以是数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、分立门或晶体管逻辑器件、分立硬件组件,可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。此外,通用处理器可以是微处理器或者任何常规处理器等。
存储器120可以是,但不限于,随机存取存储器(Random Access Memory,RAM)、只读存储器(Read Only Memory,ROM)、可编程只读存储器(Programmable Read-OnlyMemory,PROM)、可擦可编程序只读存储器(Erasable Programmable Read-Only Memory,EPROM),以及电可擦编程只读存储器(Electric Erasable Programmable Read-OnlyMemory,EEPROM)。存储器120用于存储程序,处理器110在接收到执行指令后,执行该程序。
应当理解,图1所示的结构仅为示意,本申请实施例提供的机器人100还可以具有比图1更少或更多的组件,或是具有与图1所示不同的配置。此外,图1所示的各组件可以通过软件、硬件或其组合实现。
请参阅图2,图2为本申请实施例提供的工作环境分析方法的流程示意图,该方法应用于图1所示的机器人100。所应说明的是,本申请实施例提供的工作环境分析方法不以图2及以下所示的顺序为限制,以下结合图2对工作环境分析方法的具体流程及步骤进行描述。
步骤S100,获取机器人所在工作环境的可行区域图像。
本申请实施例中,机器人所在工作环境可以是,但不限于写字楼、商场、酒店、餐厅、工厂等场所。以机器人所在工作环境为写字楼为例,机器人的可行区域可以包括可行办公区、走廊等区域。
请结合图3,本申请实施例中,步骤S100可以包括步骤S110、步骤S120和步骤S130三个子步骤。
步骤S110,获取机器人所在工作环境的栅格图像。
实际实施时,可以通过即时定位与地图构建(simultaneous localization andmapping,slam)算法获取机器人所在工作环境的栅格地图,基于slam算法,被放置于未知环境中未知位置的机器人,能够一边移动一边逐步描绘出该未知环境的完全地图,作为栅格地图。此外,可以理解的是,该栅格地图为机器人当前进行方向前方可行区域的栅格图像。
步骤S120,对栅格图像进行二值化处理,获得二值图像,二值图像中包括第一边缘线、第二边缘线,以及位于第一边缘线和第二边缘线之间的可行区域。
本申请实施例中,可以基于边缘提取算法预先在栅格图像中提取出第一边缘线和第二边缘线,也即,通过边缘算子提取出栅格图像中灰度变化超出预设变化范围的边缘点集,然后,在边缘点集合中将孤立边缘点剔除,并将边缘点集中剩余的边缘点连接,获得第一边缘线和第二边缘线,第一边缘线和第二边缘线可能为直线段,也可能为折线段,还可能为曲线段。此后,将栅格图像中经过第一边缘线和第二边缘线的所有栅格空间点的灰度值设置为0,其他栅格空间点的灰度值则设置为255,从而获得二值图像。此外,可以理解的是,二值图像中第一边缘线和第二边缘线即为可行区域通道的两条边界线,也即,可行区域位于第一边缘线和第二边缘线之间,如图4所示的二值图像,其中,第一边缘线为a,第二边缘线为b,可行区域为c。
步骤S130,在二值图像中,对可行区域中包括的每个可行空间点进行距离变换处理,获得可行区域图像。
本申请实施例中,对可行区域中包括的每个可行空间点进行距离变换处理,可以理解为,针对每个可行空间点,获得可行空间点与第一边缘线和第二边缘线之间的最小距离值,作为参考距离值,再获得参考距离值之后,根据参考距离值设定可行空间点的灰度值,例如,按正比例关系设定。如图4所示的二值图像,由于可行空间点d与第一边缘线a的距离L1小于可行空间点d与第二边缘线b的距离L2,因此,可行空间点d与第一边缘线a和第二边缘线b之间的最小距离值为L1,此后,将根据L1设定可行空间点d的灰度值,同样,由于可行空间点e与第一边缘线a的距离L3等于可行空间点e与第二边缘线b的距离L4,因此,可行空间点e与第一边缘线a和第二边缘线b之间的最小距离值为L3或L4,此后,将根据L3或L4设定可行空间点d的灰度值,获得如图5所示的可行区域图像。
需要说明的是,实际实施时,距离变换处理可以采用欧式距离变换、曼哈顿距离变换、象棋格距离变换等算法实现,本申请实施例对此不作具体限制。
步骤S200,获得可行区域图像中,每个通道空间点对应的通道宽度值。
可以理解的是,在可行区域图像中,经过同一宽度度量线的所有通道空间点所对应的通道宽度值相同,也即,为该宽度度量线的长度。如图5所示的可行区域图像,其中,经过宽度度量线fg的所有通道空间点所对应的通道宽度值,即为宽度度量线fg的长度,同样,经过宽度度量线hi的所有通道空间点所对应的通道宽度值,即为宽度度量线hi的长度。基于此,请结合图6,本申请实施例中,步骤S200可以包括步骤S210、步骤S220、步骤S230和步骤S240四个子步骤。
步骤S210,对可行区域图像进行骨架提取处理,获得可行区域图像的骨架线,经过骨架线的通道空间点为第二目标空间点。
实际实施时,可以采用k3m、Zhang-Suen等图像骨架提取算法对可行区域图像进行骨架提取处理,获得可行区域图像的骨架线,例如,图5所示的可行区域图像在进行骨架提取处理之后,获得如图7所示的骨架线,图7中的白色线条即为骨架线,经过该骨架线的通道空间点为第二目标空间点。
步骤S220,针对每个第二目标空间点,获取经过第二目标空间点,且垂直于骨架线的宽度度量线。
可以理解的是,本申请实施例中,宽度度量线为直线段,包括第一端点和第二端点,其中,第一端点经过第一边缘线,第二端点经过第二边缘线。
步骤S230,将第二目标空间点对应的灰度值,作为经过宽度度量线的所有通道空间点的灰度值。
步骤S240,针对经过宽度度量线的每个通道空间点,根据通道空间点的灰度值,获得通道空间点对应的通道宽度值。
由于步骤S130中,可行区域图像是在二值图像中,对可行区域中包括的每个可行空间点进行距离变换处理获得的,而对可行区域中包括的每个可行空间点进行距离变换处理,可以理解为,针对每个可行空间点,获得可行空间点与第一边缘线和第二边缘线之间的最小距离值,作为参考距离值,再获得参考距离值之后,根据参考距离值设定可行空间点的灰度值,因此,本申请实施例中,能够通过通道空间点的灰度值,获得通道空间点对应的通道宽度值。
步骤S300,确定出经过机器人的预规划路线的所有通道空间点,作为第一目标空间点。
本申请实施例中,当机器人被放置于未知环境中未知位置,且获得栅格地图之后,便能够根据获取的栅格地图设定预规划路线,并进一步确定出经过机器人的预规划路线的所有通道空间点,作为第一目标空间点。
步骤S400,根据每个第一目标空间点对应的通道宽度值,对机器人所在工作环境的可行区域进行宽度分析,获得分析结果。
本申请实施例中,可以通过分析所有第一目标空间点对应的通道宽度值的离散程度,以实现对机器人的工作环境进行分析,获得用于确定机器人行进策略的分析结果的目的,而所有第一目标空间点对应的通道宽度值的离散程度可以通过方差值表示。基于此,请结合图8,本申请实施例中,步骤S400可以包括步骤S410和步骤S420两个子步骤。
步骤S410,获得所有第一目标空间点对应的通道宽度值的方差值。
示例性的,所有第一目标空间点对应的通道宽度值的方差值可以通过以下计算逻辑获取:
vga=∑(gi-m)2;
gi=wi+1-wi;
m=(∑gi)/(n-1)
其中,vga表示方差值,gi表示连续两个第一目标空间点对应的通道宽度值的差值,m表示所有第一目标空间点对应的通道宽度值的均值,n表示第一目标空间点的总数。
步骤S420,根据方差值,对机器人所在工作环境的可行区域进行宽度分析,获得分析结果。
本申请实施例中,分析结果可以包括用于指示可行区域宽阔且无障碍的第一分析结果,以及用于指示可行区域狭隘和/或有障碍的第二分析结果。基于此,实际实施时,可以判断方差值是否位于预设方差范围内,若方差值位于预设方差范围内,则生成第一分析结果,若方差值超过预设方差范围,则生成第二分析结果。此外,本申请实施例中,预设方差范围可以为定值区间,例如,[0,x],其中,x的值具体可以根据实际需求设定,本申请实施例对此不作具体限制。
请参阅图9,在获得分析结果之后,本申请实施例提供的工作环境分析方法还可以包括步骤S500和步骤S600,以增强机器人的智能化程度。
步骤S500,获得与分析结果对应的行进策略。
本申请实施例中,行进策略可以包括指示机器人提速前进的第一行进策略,以及指示机器人降速前进的第二行进策略。基于此,可以理解的是,本申请实施例中,第一分析结果与第一行进策略对应,第二分析结果与第二行进策略对应。
步骤S600,使机器人根据行进策略,沿预规划路线行进。
基于与上述工作环境分析方法同样的发明构思,本申请实施例还提供了一种工作环境分析装置200,请参阅图10,本申请实施例提供的工作环境分析装置200包括图像获取模块210、宽度值获取模块220、空间点确定模块230和分析结果获取模块240。
图像获取模块210,用于获取机器人所在工作环境的可行区域图像。
关于图像获取模块210的描述具体可参考对图2中所示的步骤S100的详细描述,也即,步骤S100可以由图像获取模块210执行。
请结合图11,本申请实施例中,图像获取模块210可以包括栅格图像获取单元211、二值图像获取单元212和可行区域图像获取单元213。
栅格图像获取单元211,用于获取机器人所在工作环境的栅格图像。
关于栅格图像获取单元211的描述具体可参考对图3中所示的步骤S110的详细描述,也即,步骤S110可以由栅格图像获取单元211执行。
二值图像获取单元212,用于对栅格图像进行二值化处理,获得二值图像,二值图像中包括第一边缘线、第二边缘线,以及位于第一边缘线和第二边缘线之间的可行区域。
关于二值图像获取单元212的描述具体可参考对图3中所示的步骤S120的详细描述,也即,步骤S120可以由二值图像获取单元212执行。
可行区域图像获取单元213,用于在二值图像中,对可行区域中包括的每个可行空间点进行距离变换处理,获得可行区域图像。
可行区域图像获取单元213,具体用于针对每个可行空间点,获得可行空间点与第一边缘线和第二边缘线之间的最小距离值,作为参考距离值,并根据参考距离值设定可行空间点的灰度值,获得可行区域图像。
关于可行区域图像获取单元213的描述具体可参考对图3中所示的步骤S130的详细描述,也即,步骤S130可以由可行区域图像获取单元213执行。
宽度值获取模块220,用于获得可行区域图像中,每个通道空间点对应的通道宽度值。
关于宽度值获取模块220的描述具体可参考对图2中所示的步骤S200的详细描述,也即,步骤S200可以由宽度值获取模块220执行。
请结合图12,本申请实施例中,宽度值获取模块220可以包括骨架提取单元221、宽度度量线获取单元222、灰度值获取单元223和通道宽度值获取单元224。
骨架提取单元221,用于对可行区域图像进行骨架提取处理,获得可行区域图像的骨架线,经过骨架线的通道空间点为第二目标空间点。
关于骨架提取单元221的描述具体可参考对图6中所示的步骤S210的详细描述,也即,步骤S210可以由骨架提取单元221执行。
宽度度量线获取单元222,用于针对每个第二目标空间点,获取经过第二目标空间点,且垂直于骨架线的宽度度量线。
关于宽度度量线获取单元222的描述具体可参考对图6中所示的步骤S220的详细描述,也即,步骤S220可以由宽度度量线获取单元222执行。
灰度值获取单元223,用于将第二目标空间点对应的灰度值,作为与经过宽度度量线的所有通道空间点的灰度值。
关于灰度值获取单元223的描述具体可参考对图6中所示的步骤S230的详细描述,也即,步骤S230可以由灰度值获取单元223执行。
通道宽度值获取单元224,用于针对经过宽度度量线的每个通道空间点,根据通道空间点的灰度值,获得通道空间点对应的通道宽度值。
关于通道宽度值获取单元224的描述具体可参考对图6中所示的步骤S240的详细描述,也即,步骤S240可以由通道宽度值获取单元224执行。
空间点确定模块230,用于确定出经过机器人的预规划路线的所有通道空间点,作为第一目标空间点。
关于空间点确定模块230的描述具体可参考对图2中所示的步骤S300的详细描述,也即,步骤S300可以由空间点确定模块230执行。
分析结果获取模块240,用于根据每个第一目标空间点对应的通道宽度值,对机器人所在工作环境的可行区域进行宽度分析,获得分析结果。
关于分析结果获取模块240的描述具体可参考对图2中所示的步骤S400的详细描述,也即,步骤S400可以由分析结果获取模块240执行。
请结合图13,本申请实施例中,分析结果获取模块240可以包括方差值获取单元241和分析结果获取单元242。
方差值获取单元241,用于获得所有第一目标空间点对应的通道宽度值的方差值。
关于方差值获取单元241的描述具体可参考对图8中所示的步骤S410的详细描述,也即,步骤S410可以由方差值获取单元241执行。
分析结果获取单元242,用于根据方差值,对机器人所在工作环境的可行区域进行宽度分析,获得分析结果。
分析结果获取单元242,具体用于判断方差值是否位于预设方差范围内,若方差值位于预设方差范围内,则生成用于指示可行区域宽阔且无障碍的第一分析结果,若方差值超过预设方差范围,则生成用于指示可行区域狭隘和/或有障碍的第二分析结果。
关于分析结果获取单元242的描述具体可参考对图8中所示的步骤S420的详细描述,也即,步骤S420可以由分析结果获取单元242执行。
请参阅图14,本申请实施例提供的工作环境分析装置200还可以包括策略获取模块250和行进控制模块260。
策略获取模块250,用于获得与分析结果对应的行进策略。
关于策略获取模块250的描述具体可参考对图9中所示的步骤S500的详细描述,也即,步骤S500可以由策略获取模块250执行。
行进控制模块260,用于使机器人根据行进策略,沿预规划路线行进。
关于行进控制模块260的描述具体可参考对图9中所示的步骤S600的详细描述,也即,步骤S600可以由行进控制模块260执行。
此外,本申请实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,计算机程序被执行时,可实现上述方法实施例中提供的工作环境分析方法,具体可参见上述方法实施例,此处不再赘述。
综上所述,本申请实施例提供的工作环境分析方法、装置及机器人,能够获取机器人所在工作环境的可行区域图像,以及可行区域图像中,每个通道空间点对应的通道宽度值,再确定出经过机器人的预规划路线的所有通道空间点,作为第一目标空间点,根据每个第一目标空间点对应的通道宽度值,对机器人所在工作环境的可行区域进行宽度分析,获得分析结果。显然,本申请实施例中提供的工作环境分析方法,能够通过获取的每个第一目标空间点对应的通道宽度值,实现对机器人的工作环境进行分析的目的,相对于现有技术中,通过深度学习实现对机器人的工作环境进行分析的方案而言,降低了计算资源的消耗,因此,能够有效提高机器人的工作环境分析效率。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请每个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是每个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请每个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
需要说明的是,在本文中,诸如“第一”、“第二”和“第三”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。
Claims (10)
1.一种工作环境分析方法,其特征在于,包括:
获取机器人所在工作环境的可行区域图像;
获得所述可行区域图像中,每个通道空间点对应的通道宽度值;
确定出经过所述机器人的预规划路线的所有通道空间点,作为第一目标空间点;
根据每个所述第一目标空间点对应的通道宽度值,对所述机器人所在工作环境的可行区域进行宽度分析,获得分析结果。
2.根据权利要求1所述的工作环境分析方法,其特征在于,所述获取机器人所在工作环境的可行区域图像,包括:
获取所述机器人所在工作环境的栅格图像;
对所述栅格图像进行二值化处理,获得二值图像,所述二值图像中包括第一边缘线、第二边缘线,以及位于所述第一边缘线和所述第二边缘线之间的可行区域;
在所述二值图像中,对所述可行区域中包括的每个可行空间点进行距离变换处理,获得所述可行区域图像。
3.根据权利要求2所述的工作环境分析方法,其特征在于,所述对所述可行区域中包括的每个可行空间点进行距离变换处理,获得所述可行区域图像,包括:
针对每个所述可行空间点,获得所述可行空间点与所述第一边缘线和所述第二边缘线之间的最小距离值,作为参考距离值;
根据所述参考距离值设定所述可行空间点的灰度值,获得所述可行区域图像。
4.根据权利要求3所述的工作环境分析方法,其特征在于,所述获得所述可行区域图像中,每个通道空间点对应的通道宽度值,包括:
对所述可行区域图像进行骨架提取处理,获得所述可行区域图像的骨架线,经过所述骨架线的通道空间点为第二目标空间点;
针对每个所述第二目标空间点,获取经过所述第二目标空间点,且垂直于所述骨架线的宽度度量线;
将所述第二目标空间点对应的灰度值,作为与经过所述宽度度量线的所有通道空间点的灰度值;
针对经过所述宽度度量线的每个通道空间点,根据所述通道空间点的灰度值,获得所述通道空间点对应的通道宽度值。
5.根据权利要求1所述的工作环境分析方法,其特征在于,所述根据每个所述第一目标空间点对应的通道宽度值,对所述机器人所在工作环境的可行区域进行宽度分析,获得分析结果,包括:
获得所有所述第一目标空间点对应的通道宽度值的方差值;
根据所述方差值,对所述机器人所在工作环境的可行区域进行宽度分析,获得分析结果。
6.根据权利要求5所述的工作环境分析方法,其特征在于,所述根据所述方差值,对所述机器人所在工作环境的可行区域进行宽度分析,获得分析结果,包括:
判断所述方差值是否位于预设方差范围内;
若所述方差值位于预设方差范围内,则生成用于指示所述可行区域宽阔且无障碍的第一分析结果;
若所述方差值超过预设方差范围,则生成用于指示所述可行区域狭隘和/或有障碍的第二分析结果。
7.根据权利要求1所述的工作环境分析方法,其特征在于,所述根据每个所述第一目标空间点对应的通道宽度值,对所述机器人所在工作环境的可行区域进行宽度分析,获得分析结果之后,所述方法还包括:
获得与所述分析结果对应的行进策略;
使所述机器人根据所述行进策略,沿所述预规划路线行进。
8.一种工作环境分析装置,其特征在于,包括:
图像获取模块,用于获取机器人所在工作环境的可行区域图像;
宽度值获取模块,用于获得所述可行区域图像中,每个通道空间点对应的通道宽度值;
空间点确定模块,用于确定出经过所述机器人的预规划路线的所有通道空间点,作为第一目标空间点;
分析结果获取模块,用于根据每个所述第一目标空间点对应的通道宽度值,对所述机器人所在工作环境的可行区域进行宽度分析,获得分析结果。
9.一种机器人,其特征在于,包括处理器和存储器,所述存储器上存储有计算机程序,所述处理器用于执行所述计算机程序,以实现权利要求1~7中任意一项所述的工作环境分析方法。
10.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被执行时,可实现权利要求1~7中任意一项所述的工作环境分析方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910843708.6A CN110509293B (zh) | 2019-09-06 | 2019-09-06 | 工作环境分析方法、装置及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910843708.6A CN110509293B (zh) | 2019-09-06 | 2019-09-06 | 工作环境分析方法、装置及机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110509293A true CN110509293A (zh) | 2019-11-29 |
CN110509293B CN110509293B (zh) | 2021-01-22 |
Family
ID=68631534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910843708.6A Active CN110509293B (zh) | 2019-09-06 | 2019-09-06 | 工作环境分析方法、装置及机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110509293B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021243894A1 (zh) * | 2020-06-02 | 2021-12-09 | 苏州科瓴精密机械科技有限公司 | 基于图像识别工作位置的方法、系统,机器人及存储介质 |
WO2021243897A1 (zh) * | 2020-06-02 | 2021-12-09 | 苏州科瓴精密机械科技有限公司 | 基于图像识别工作位置的方法、系统,机器人及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101425140A (zh) * | 2008-11-13 | 2009-05-06 | 苏州大学 | 基于骨架特征的脑血管瘤图像识别检测方法 |
US20100121561A1 (en) * | 2007-01-29 | 2010-05-13 | Naoaki Kodaira | Car navigation system |
CN101807253A (zh) * | 2010-03-22 | 2010-08-18 | 南京工程学院 | 面向输电线路基于区域宽度信息的图像骨架提取方法 |
CN104616014A (zh) * | 2014-12-15 | 2015-05-13 | 广西科技大学 | 基于形态学操作的田间曲线导航线提取方法 |
CN108509928A (zh) * | 2018-04-09 | 2018-09-07 | 石河子大学 | 针对矮化密植枣园田管作业视觉导航路径提取方法 |
CN108645342A (zh) * | 2018-04-25 | 2018-10-12 | 国交空间信息技术(北京)有限公司 | 一种基于道路轨迹和高分辨率影像的道路宽度提取方法 |
WO2018211396A1 (en) * | 2017-05-13 | 2018-11-22 | Indian Institute Of Science | Detection of powerlines in aerial images |
CN109974699A (zh) * | 2017-12-27 | 2019-07-05 | 深圳市优必选科技有限公司 | 一种机器人及其地图自主探索方法和装置 |
-
2019
- 2019-09-06 CN CN201910843708.6A patent/CN110509293B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100121561A1 (en) * | 2007-01-29 | 2010-05-13 | Naoaki Kodaira | Car navigation system |
CN101425140A (zh) * | 2008-11-13 | 2009-05-06 | 苏州大学 | 基于骨架特征的脑血管瘤图像识别检测方法 |
CN101807253A (zh) * | 2010-03-22 | 2010-08-18 | 南京工程学院 | 面向输电线路基于区域宽度信息的图像骨架提取方法 |
CN104616014A (zh) * | 2014-12-15 | 2015-05-13 | 广西科技大学 | 基于形态学操作的田间曲线导航线提取方法 |
WO2018211396A1 (en) * | 2017-05-13 | 2018-11-22 | Indian Institute Of Science | Detection of powerlines in aerial images |
CN109974699A (zh) * | 2017-12-27 | 2019-07-05 | 深圳市优必选科技有限公司 | 一种机器人及其地图自主探索方法和装置 |
CN108509928A (zh) * | 2018-04-09 | 2018-09-07 | 石河子大学 | 针对矮化密植枣园田管作业视觉导航路径提取方法 |
CN108645342A (zh) * | 2018-04-25 | 2018-10-12 | 国交空间信息技术(北京)有限公司 | 一种基于道路轨迹和高分辨率影像的道路宽度提取方法 |
Non-Patent Citations (1)
Title |
---|
孔月萍 万晨 张跃鹏 张晶晶: "栅格数据中面状地物的骨架线提取方法", 《测绘科学技术学报》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021243894A1 (zh) * | 2020-06-02 | 2021-12-09 | 苏州科瓴精密机械科技有限公司 | 基于图像识别工作位置的方法、系统,机器人及存储介质 |
WO2021243897A1 (zh) * | 2020-06-02 | 2021-12-09 | 苏州科瓴精密机械科技有限公司 | 基于图像识别工作位置的方法、系统,机器人及存储介质 |
CN113822094A (zh) * | 2020-06-02 | 2021-12-21 | 苏州科瓴精密机械科技有限公司 | 基于图像识别工作位置的方法、系统,机器人及存储介质 |
CN113822094B (zh) * | 2020-06-02 | 2024-01-16 | 苏州科瓴精密机械科技有限公司 | 基于图像识别工作位置的方法、系统,机器人及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110509293B (zh) | 2021-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10692280B2 (en) | 3D indoor modeling method, system and device based on point cloud data | |
US20210082539A1 (en) | Gene mutation identification method and apparatus, and storage medium | |
CN107179768B (zh) | 一种障碍物识别方法及装置 | |
CN111539428A (zh) | 基于多尺度特征整合和注意力机制的旋转目标检测方法 | |
CN110443212B (zh) | 用于目标检测的正样本获取方法、装置、设备及存储介质 | |
JP2017521779A (ja) | 画像解析を用いた核のエッジの検出 | |
CN110509293A (zh) | 工作环境分析方法、装置及机器人 | |
US20150301226A1 (en) | Short term cloud coverage prediction using ground-based all sky imaging | |
US10217017B2 (en) | Systems and methods for containerizing multilayer image segmentation | |
CN111754526B (zh) | 户型图分割方法、分类方法、分割装置、设备和存储介质 | |
CN108596885B (zh) | 基于cpu+fpga的快速sar图像变化检测方法 | |
CN111079507A (zh) | 一种行为识别方法及装置、计算机装置及可读存储介质 | |
CN110689518A (zh) | 宫颈细胞图像筛查方法、装置、计算机设备及存储介质 | |
JP2017111814A (ja) | 堆積物体の認識方法、装置、及び機器による選別システム | |
CN112561859A (zh) | 基于单目视觉的锚护用钢带钻孔与锚网识别方法及装置 | |
CN111783716A (zh) | 基于姿态信息的行人检测方法、系统、装置 | |
CN113435801B (zh) | 基于人工智能的输电线安全隐患评估的方法、装置及设备 | |
CN105224941A (zh) | 对象辨识与定位方法 | |
Yuan et al. | Fast gaussian process occupancy maps | |
CN109886193B (zh) | 一种卷云检测方法、设备及计算机可读存储介质 | |
CN106651803A (zh) | 户型数据的识别方法及装置 | |
CN108596910B (zh) | 一种基于单高斯模型的三维声纳点云图像分割方法 | |
CN109313708B (zh) | 图像匹配方法和视觉系统 | |
CN109855634A (zh) | 一种栅格地图的图像处理的方法及设备 | |
CN113781569B (zh) | 一种回环检测方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: Room 201, building 4, courtyard 8, Dongbeiwang West Road, Haidian District, Beijing Patentee after: Beijing Yunji Technology Co.,Ltd. Address before: Room 201, building 4, courtyard 8, Dongbeiwang West Road, Haidian District, Beijing Patentee before: BEIJING YUNJI TECHNOLOGY Co.,Ltd. |
|
CP01 | Change in the name or title of a patent holder |