CN116352723A - 一种机器人交互方法、机器人、装置及存储介质 - Google Patents
一种机器人交互方法、机器人、装置及存储介质 Download PDFInfo
- Publication number
- CN116352723A CN116352723A CN202310545904.1A CN202310545904A CN116352723A CN 116352723 A CN116352723 A CN 116352723A CN 202310545904 A CN202310545904 A CN 202310545904A CN 116352723 A CN116352723 A CN 116352723A
- Authority
- CN
- China
- Prior art keywords
- interaction
- robot
- man
- instruction
- machine interaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
本发明公开了一种机器人交互方法、机器人、装置及存储介质,涉及机器人技术领域。机器人交互方法包括:在机器人向人机交互点位运动过程中,通过视觉传感器的采集数据进行异常检测;在机器人到达人机交互点位时,暂停异常检测;根据视觉传感器的采集数据识别人机交互指令。本发明实施例的技术方案,通过视觉传感器的采集数据进行人机交互指令识别,提高人机交互效率和可靠性。
Description
技术领域
本发明涉及机器人技术领域,尤其涉及一种机器人交互方法、机器人、装置及存储介质。
背景技术
随着人工智能技术的快速发展,机器人技术近年来取得了很大的进步,机器人在越来越多的场景中得到广泛应用。例如,应用在工业场景下的物资运送机器人,应用在餐厅、酒店以及宾馆等场景下的服务机器人等。
在机器人需要开启任务或者机器人行进至目标点时,常常需要与工作人员进行交互,以得到待执行的任务指令。例如,在将餐品放置到送餐机器人托盘后,需要工作人员发起餐品配送指令。
现有技术中,人机交互常用的方式为工作人员通过触摸机器人屏幕下发交互指令,或者通过语音与机器人进行交互。但实际工作场景中,工作人员经常出现双手占用不方便操作屏幕的情况,导致触摸式交互效率较低。除此之外,机器人的工作环境常常比较嘈杂,从而导致语音识别效率较低。
发明内容
本发明提供了一种机器人交互方法、机器人、装置及存储介质,以解决工作人员双手被占用不方便操作屏幕,或者工作环境嘈杂情况下,人机交互效率较低的问题。
根据本发明的一方面,提供了一种机器人交互方法,应用于机器人的处理器,所述机器人设置有视觉传感器,所述方法包括:
在机器人向人机交互点位运动过程中,通过所述视觉传感器的采集数据进行异常检测;
在机器人到达所述人机交互点位时,暂停所述异常检测;
根据所述视觉传感器的采集数据识别人机交互指令。
根据本发明的另一方面,提供了一种机器人,包括:视觉传感器以及处理器;所述处理器和所述视觉传感器通信连接;
所述视觉传感器,用于在机器人向人机交互点位运动过程中以及到达所述人机交互点位时,将采集数据发送至所述处理器;
所述处理器,用于执行本发明任一实施例所述的机器人交互方法。
根据本发明的另一方面,提供了一种机器人交互装置,包括:
异常检测模块,用于在机器人向人机交互点位运动过程中,通过视觉传感器的采集数据进行异常检测;
异常检测暂停模块,用于在机器人到达所述人机交互点位时,暂停所述异常检测;
指令识别模块,用于根据所述视觉传感器的采集数据识别人机交互指令。
根据本发明的另一方面,提供了一种电子设备,所述电子设备包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的机器人交互方法。
根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的机器人交互方法。
本发明实施例的技术方案,在机器人向人机交互点位运动过程中,通过视觉传感器的采集数据进行异常检测,在机器人到达人机交互点位时,暂停异常检测,并根据视觉传感器的采集数据识别人机交互指令。通过在机器人的不同工作状态下对视觉传感器的采集数据进行不同处理,实现人机交互,避免触控屏交互在双手占用时交互效率低,以及语音交互在嘈杂环境下出错率高等缺陷,本方案可以在不增加硬件成本的条件下,提升人机交互的效率和可靠性。
应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是根据本发明实施例一提供的一种机器人交互方法的流程图;
图2a是根据本发明实施例二提供的一种机器人交互方法的流程图;
图2b是根据本发明实施例二提供的人机交互指令识别的流程图;
图3是根据本发明实施例三提供的一种机器人交互方法的流程图;
图4是根据本发明实施例四提供的一种机器人的结构示意图;
图5是根据本发明实施例五提供的一种机器人交互装置的结构示意图;
图6是实现本发明实施例的机器人交互方法的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
图1为本发明实施例一提供了一种机器人交互方法的流程图,本实施例可适用于根据机器人视觉传感器的采集数据,识别人机交互指令情况,该方法可以应用于机器人的处理器中。需要说明的是,机器人还需要设置有视觉传感器,例如,立体视觉传感器。视觉传感器用于对采集区域的环境信息进行探测,使得处理器能够依据视觉传感器的采集信息识别机器人所处环境信息。除此之外,还可以使处理器依据视觉传感器的采集信息识别人机交互指令。
本发明实施例中涉及到的机器人交互方法可以由机器人交互装置来执行,该机器人交互装置可以采用硬件和/或软件的形式实现,该机器人交互装置可配置于各种通用计算设备中,例如,通用计算设备是机器人内置的处理器。如图1所示,该方法包括:
S110、在机器人向人机交互点位运动过程中,通过视觉传感器的采集数据进行异常检测。
人机交互点位是机器人和人员进行交互的位置点的统称,人机交互点位可以是机器人需要获取人员下发工作指令的任意位置点。示例性的,在机器人配送场景下,机器人交互点位可以是机器人的原点、配送起始点位或者配送目标点位等。
本发明实施例中,机器人的机身配置有视觉传感器,用于对机器人所在环境进行探测,例如,机器人配置有立体视觉传感器。在机器人接收到用户的呼叫信息或服务器下发的任务信息后,向人机交互点位运动过程中,位于机器人机身的视觉传感器实时采集运动过程中所处环境的信息,并将采集信息发送至机器人的处理器。处理器依据视觉传感器的采集信息,可以进行机器人运动过程中的异常检测,例如障碍物检测以及断崖检测等。具体的,处理器将视觉传感器的采集数据转换为三维点云数据,依据三维点云数据确定机器人所在位置周围是否存在障碍物或者地面悬崖。
在一个具体的例子中,送餐机器人响应于呼叫指令,运动至出餐口并打开置物舱门。运动过程中,机器人适配的立体视觉传感器实时采集运动路线中环境信息,并发送至处理器。处理器通过对立体视觉传感器的采集数据进行处理,确定运动路线中是否存在静态或者动态障碍物,以及是否存在路面悬崖,以避免与障碍物发生碰撞或者跌落台阶等情况。
S120、在机器人到达人机交互点位时,暂停异常检测。
本发明实施例中,机器人在运动到达人机交互点位后,需要等待人员的控制指令,以执行下一阶段任务。此时,机器人暂停异常检测,避免误识别,如避免将服务人员等误识别为障碍物,触发错误避障。机器人可以在检测到满足交互指令识别条件后,由异常检测模式转换为人机交互指令识别模式。其中,交互指令识别条件可以是服务器在机器人停止运动后下发的指令识别请求,也可以是机器人通过自身传感器检测到预先设定的指令识别条件。
值得注意的是,在人机交互指令识别模式下,视觉传感器不停止工作,而是继续将采集数据发送至处理器进行处理。异常检测模式和人机交互指令识别模式下,处理器针对视觉传感器的采集信息处理方式不同。可选地,如果立体视觉传感器为采集角度可调节的,则当在异常检测模式和人机交互指令识别模式之间切换时,可以根据切换到的模式调整立体视觉传感器的采集角度,提高准确率和效率。例如,当从异常检测模式切换到人机交互指令识别模式时,立体视觉传感器的采集角度可以向下调整,检测机器人附近地面区域,以准确识别人机交互指令。
S130、根据视觉传感器的采集数据识别人机交互指令。
本发明实施例中,在机器人的工作模式由异常检测模式转换为人机交互指令识别模式后,处理器会根据视觉传感器的采集数据,识别人机交互指令。具体的,将视觉传感器的采集数据转换为三维点云数据,进一步的,为方便计算,可以将三维点云数据转换至机器人坐标系下。最终,对转换至机器人坐标系下的采集数据进行识别,确定人机交互指令。例如,将转换后的采集数据与预先设定的指令特征进行比对,在二者匹配的情况下,确定识别到人机交互指令。其中,人机交互指令可以是控制机器人关闭舱门指令。机器人坐标系是以机器人选装中心为坐标原点,机器人正前方为X轴正向,机器人高度方向为Z轴正向的右手坐标系。
在一个具体的例子中,在送餐机器人响应于人员呼叫,运动至出餐口后停止运动并打开置物舱门。置物舱内预先设置有能够进行物品检测的托盘,托盘检测到服务员放置菜品,并在放置菜品后持续一定时间,如20秒无其他菜品变动,开启人机交互指令识别模式,通过对视觉传感器的采集数据进行识别,确定人机交互指令。其中,人机交互指令可以是关闭舱门指令,或者关闭舱门并向送餐目标点位运动的指令。
在另一个具体的例子中,在送餐机器人到达菜品配送目标点位后停止运动并打开置物舱门。置物舱内托盘检测到服务员取出菜品,并在取出菜品后持续20秒无其他菜品变动,开启人机交互指令识别模式,通过对视觉传感器的采集数据进行识别,确定人机交互指令。其中,人机交互指令可以是关闭舱门指令,或者关闭舱门并向下一配送目标点位运动的指令。
本发明实施例的技术方案,在机器人向人机交互点位运动过程中,通过视觉传感器的采集数据进行异常检测,在机器人到达人机交互点位时,暂停异常检测,并根据视觉传感器的采集数据识别人机交互指令。通过在机器人的不同工作状态下对视觉传感器的采集数据进行不同处理,实现人机交互,避免触控屏交互在双手占用时交互效率低,以及语音交互在嘈杂环境下出错率高等缺陷,本方案可以在不增加硬件成本的条件下,提升人机交互的效率和可靠性。
实施例二
图2a为本发明实施例二提供的一种机器人交互方法的流程图,本实施例在上述实施例的基础上进一步细化,提供了根据视觉传感器的采集数据识别人机交互指令的具体步骤。如图2a所示,该方法包括:
S210、在机器人向人机交互点位运动过程中,通过视觉传感器的采集数据进行异常检测。
S220、在机器人到达人机交互点位时,暂停异常检测。
S230、控制投影灯在预设的指令识别区域展示交互指示标识,用于指示用户基于交互指示标识,在相应区域发起交互动作。
投影灯是设置于机器人机身,用于在指定区域投影交互指示标识的设备。其中,交互指示标识是用于提示用户发起交互位置的标识,例如,投影灯将交互指示标识投影至机器人前方地面,则表示需要用户在机器人前方地面的上方相应区域内发起交互动作。
本发明实施例中,机器人在到达人机交互点位,并检测到满足交互指令识别条件时,首先控制投影灯在预设的指令识别区域展示交互指示标识,以指示用户在指令识别识别区域关联的交互区域发起交互动作。
可选的,在控制投影灯指示用户发起交互动作的同时,还可以通过发出语音提示信息,多维度引导用户发起交互动作,以保证用户能够接收到机器人开启人机交互模式的信号。
示例性的,投影灯在机器人前方地面的指令识别区域投影交互指示标识,用于指示用户在机器人前方地面上作出脚部交互动作。又示例性的,投影灯在机器人前方的墙壁或者其他平面投影交互指示标识,用于指示用于在机器人前方作出特定交互动作。其中,交互指示标识可以是文字类型的提示信息,也可以是图标类型的提示信息,此处不作具体限定。例如,交互指令标识可以是点状的,还可以是箭头,或者特定人体部位的图形等,例如手形标识、脚形标识等。
可选的,视觉传感器向下倾斜设置,所述视觉传感器安装位置距离地面0.3-2.0米,所述投影灯安装位置距离地面0.1-1.0米,且所述视觉传感器的安装位置高于投影灯的安装位置。
本可选的实施例中,提供了视觉传感器和投影灯的安装位置:视觉传感器选择向下倾斜设置,安装位置在机器人的前方,距离地面0.3-2.0米处。例如,机器人高度为1.3米,视觉传感器安装位置在机器人前方距离地面1.1-1.2米处。
投影灯用于投影交互指示标识,交互指示标识用于提示用户发起脚部交互指令,因此,交互指示标识一般投影在机器人取物放物的一侧,如机器人的前方地面。鉴于上述投影需求,可以将投影灯设置于机器人前方,距离地面0.1-1.0米高处。为了保证投影灯投射出的交互指示标识顺利投影至地面,而不被服务员的取餐动作、置物舱门开关等遮挡,可以使投影灯高度较低,例如,距离地面0.2-0.3米。
立体视觉传感器的安装高度大于投影灯的安装高度,可以扩大立体视觉传感器的探测视野范围,且便于立体视觉传感器在机器人运动过程中进行异常检测。投影灯安装在较低位置,可以减少机器人操作以及其他障碍物对于投影的影响。
S240、控制视觉传感器,采集交互动作关联的采集数据。
本发明实施例中,在机器人开启人机交互指令识别模式的情况下,控制投影灯投影交互指示标识,同时控制视觉传感器采集指令识别区域的传感器数据,此时的采集数据用于识别人机交互指令。
S250、对采集数据进行识别,得到人机交互指令。
本发明实施例中,处理器在获取到视觉传感器的采集数据后,对采集数据进行识别,得到人机交互指令。具体的,先将采集数据由传感器数据转换为点云数据,进而将点云数据转换至机器人坐标系下。处理器可以提取机器人坐标系下的数据特征,并将数据特征与预先设定的交互动作特征进行比对,得到人机交互指令。处理器还可以在提取数据特征之前,对机器人坐标系下的数据进行筛选,以滤除指令识别区域之外的干扰点。
可选的,对采集数据进行识别,得到人机交互指令,包括:
将采集数据转换为点云数据,并将点云数据转换至机器人坐标系中,得到初始点集;
对初始点集进行筛选,得到初始点集中包含的交互动作点;
通过对交互动作点进行识别,确定人机交互指令。
本可选的实施例中,提供一种对采集数据进行识别,得到人机交互指令的具体方式:首先,将采集数据转换为三维点云数据,进而将点云数据坐标转换至机器人坐标系中,得到初始点集。进一步的,由于初始点集中包含了视觉传感器探测范围内的全部点,这些点中除了包含交互动作点之外,还可能包含指令识别区域之外的其他障碍物点以及地面点等。因此可以在对初始点集进行筛选,滤除其中包含的地面点以及其他障碍物点,得到交互动作点。最终,通过对交互动作点进行识别,确定人机交互指令。例如,将人机交互点集合的横向尺寸、纵向尺寸以及平均高度与预先设置的尺寸范围进行比对,如果均在设定尺寸范围内,则确定检测到人机交互指令。
可选的,对初始点集进行筛选,得到初始点集中包含的交互动作点,包括:
在初始点集中,筛选出位于指令识别区域内的过渡点集;
在过渡点集中滤除地面点,得到交互动作点。
本可选的实施例中,提供一种对初始点集进行筛选,得到初始点集中包含的交互动作点的具体方式:首先在初始点集中,筛选出位于指令识别区域内的点,作为过渡点集,其中,指令识别区域可以是在机器人坐标系下具有一定长度和宽度的矩形区域。示例性的,指令识别区域可以根据视觉传感器的采集范围和投影灯的投影范围的重合区域来确定。进一步的,可以对过渡点集进行滤波,滤除其中包含的地面点,并将剩余的点作为交互动作点,其中,地面点是机器人所在区域中水平地面/非水平地面所包含的点。在进行交互指令识别之前,对于初始点集进行滤波,避免地面点和指令识别区域之外点对于交互指令识别造成影响,进而提高交互指令的识别准确率。
可选的,在过渡点集中滤除地面点,得到交互动作点,包括下述至少一项:
根据预先设定的水平地面高度范围,在过渡点集中滤除地面点,得到交互动作点;
将提取的非水平地面的地面参数转换至机器人坐标系,并依据转换后的地面参数滤除过渡点集中的地面点,得到交互动作点。
本可选的实施例中,提供了在过渡点集中滤除地面点,得到交互动作点的具体方式:当机器人所在位置处地面为水平地面的情况下,根据预先设置的水平地面高度范围,在过渡点集中滤除地面点,得到交互动作点。示例性的,滤除Z轴坐标为0的点,得到剩余点作为交互动作点。又示例性的,考虑到视觉传感器无法避免的存在测量误差,导致测量到的地面点无法准确分布在Z轴坐标为0处,因此,可以进一步扩展到滤除Z轴坐标属于[-h,h]范围内的点,得到剩余点作为交互动作点,h可以依据视觉传感器的测量精度灵活设置,例如,h可以为0.01-0.03米,通过设置h值,可以提高地面滤除的准确性。
当机器人所在位置处地面为斜坡、台阶或者凹凸不平的非水平地面的情况下,可以先采用视觉传感器提取机器人当前所处地面点,进而将地面点转换至机器人坐标系下。进一步的,在过渡点集中滤除转换后的地面点,得到交互动作点。示例性的,机器人当前所处地面是否为非水平地面可以根据机器人的传感器确定,例如机器人当前是否倾斜。还可以根据机器人当前的定位信息,结合地图上的非水平地面的标识区域来确定。对于非水平地面,可以在机器人投影区域提取地平面,获取地平面与相机坐标系的转换关系,以此为依据滤除新的地面,获取剩余的障碍物点云,继续后面判断步骤。
可选的,通过对交互动作点进行识别,确定人机交互指令,包括:
依据交互动作点之间的距离,对交互动作点进行聚类,得到至少一个聚类簇;
在至少一个聚类簇中,确定包含交互动作点最多的目标聚类簇,并确定目标聚类簇中包含目标交互动作点在交互动作点中的数量占比;
在数量占比大于设定占比阈值的情况下,依据目标聚类簇的轴向尺寸、横向尺寸以及轴向法向量分布状态,确定目标聚类簇是否与预设交互特征相符;
在目标聚类簇与预设交互特征相符的情况下,依据目标聚类簇,确定人机交互指令。
本可选的实施例中,提供了一种通过对交互动作点进行识别,确定人机交互指令的具体方式:首先依据交互动作点之间的距离,对交互动作点进行聚类处理,得到至少一个聚类簇。进一步的,获取各聚类簇中包含交互动作点的数量,将包含交互动作点数量最多的聚类簇作为目标聚类簇,并计算目标聚类簇中包含目标交互动作点在全部交互动作点中的数量占比。将数量占比与设定占比阈值(例如,80%)进行比对,如果数量占比小于或者等于占比阈值,则表明在指令识别区域内识别到的障碍物信息过于杂乱,与人机交互情况不符,则认为未识别到人机交互指令;如果数量占比大于占比阈值,则表明障碍物集中在一个聚类簇中,可能存在人机交互指令,需要进一步进行判断。
具体的,在数量占比大于设定占比阈值的情况下,获取目标聚类簇的轴向尺寸、横向尺寸、点平均高度以及轴向法向量分布状态与预先设定的交互特征进行比对,如果目标聚类簇与预设交互特征相符,则依据目标聚类簇,确定人机交互指令。通过上述模板聚类簇的多维度数据与预设交互特征进行比对,可以避免其他障碍物存在导致的交互指令误识别,避免将目标用户的非交互指令动作误识别为交互指令动作,提高交互指令识别可靠性。
其中,预设交互特征可以是预先根据交互动作提取的,包括轴向尺寸、横向尺寸以及点平均高度等。例如,交互动作为用户脚部遮挡指令识别区域,则可以将用户脚部抽象为立方体,从而得到预设交互特征。在餐厅等配送场景下,用户的手部往往需要用于取物放物而被占用,因此检测脚部交互特征,能够提高机器人的效率,减轻用户的负担。
除此之外,为了进一步避免因其他障碍物的存在导致的交互指令误识别的情况,可以回溯机器人检测到人机交互指令之前设定时间段内该位置的传感器数据。
以人机交互指令包括开门指令为例,如果机器人检测到开门指令,则处理器回溯检测到开门指令之前设定时间段内该位置的立体视觉传感器数据。如果设定时间段内无固定障碍物出现在指令识别区域,则认为无固定障碍物,可以依据识别到的人机交互指令继续执行相应操作;如果设定时间段内指令识别区域内出现固定障碍物,则认为该区域存在障碍物,则不会执行开门指令,确保机器人运行时的安全性。还可以在识别到开门指令后,在显示屏幕中提示用户检查是否存在障碍物,需要移动后再进行检测。机器人可以在移动或者转动到无障碍物区域后,再次开启人机交互指令检测模式进行人机交互指令识别。
可选的,依据目标聚类簇,确定人机交互指令,包括:
在目标聚类簇与预设交互特征相符的情况下,获取交互检测计时器的计时时长;交互检测计时器用于对识别到交互动作的时长进行计时;
在计时时长达到设定时间阈值的情况下,依据目标聚类簇,确定人机交互指令。
本可选的实施例中,提供了依据目标聚类簇,确定人机交互指令的具体方式:在目标聚类簇与预设交互特征相符的情况下,获取交互检测计时器的计时时长,其中,交互检测计时器用于对识别到交互动作的持续时长进行计时。如果检测到交互动作的时长达到设定时间阈值,则可以依据目标聚类簇,确定人机交互指令。通过对检测到交互动作的持续时长进行计时,只有交互时长持续超过设定时间阈值,才认为识别到人机交互指令,可以避免因短暂出现的障碍物,或传感器数据瞬时异常导致的人机交互指令误识别。
除此之外,还可以在人机交互指令识别之前,开启超时计时器,如果在超时计时器的计时时长超过超时阈值的情况下,仍未监测到交互动作,则认为未在有效等待时长内识别到人机交互指令。此时,可以关闭投影灯,结束人机交互指令识别过程。
在一个具体的例子中,如图2b所示,在机器人到达人机交互点位,并且满足交互指令检测条件时,开启人机交互指令检测模式。首先,初始化交互检测计时器以及超时计时器。进而控制投影灯在指令识别区域投影交互指示标识,并持续检测超时计时器的计时时长是否超过超时阈值。如果超过超时阈值,输出识别超时的提示信息,并关闭投影灯,结束人机交互指令识别过程;如果未超过超时阈值,则持续识别交互动作。如果未识别到交互动作,则将交互检测计时器的计时时长置0;如果识别到交互动作,则获取交互检测计时器的计时时长,并判断计时时长是否超过时间阈值。如果超过时间阈值,则输出识别成功的提示信息,执行相应的交互指令,并关闭投影灯,结束人机交互指令识别过程。
除此之外,还可以在机器人的显示屏幕中展示交互检测计时器和超时计时器的进度条,便于用户获取人机交互指令的识别进度。在退出人机交互指令识别模式后,再次转换至异常检测模式。
本发明实施例的技术方案,在机器人到达交互点位后,控制投影灯在预设的指令识别区域展示交互指示标识,用于指示用户基于交互指示标识,在相应区域发起交互动作,进而控制视觉传感器,采集交互动作关联的采集数据,并对采集数据进行识别,得到人机交互指令。通过对视觉传感器的采集信息进行识别,得到人机交互指令,无需用户通过手部操作机器人触控屏,且不会受到环境噪音干扰,提高交互指令识别的效率和可靠性。
实施例三
图3为本发明实施例三提供的一种机器人交互方法,本实施例可适用于根据安装在机器人视觉传感器的采集数据,识别人机交互指令情况,该方法可以应用于机器人的处理器中。如图3所示,该方法包括:
S310、在机器人向人机交互点位运动过程中,通过视觉传感器的采集数据进行异常检测。
可选的,人机交互点位包括配送起始点位和配送目标点位至少之一。
本可选的实施例中,在机器人为配送机器人的场景下,人机交互点位可以是配送起始点位以及配送目标点位中的至少一项。
S320、在机器人到达人机交互点位时,暂停异常检测,并打开置物舱门。
本发明实施例中,在机器人到达人机交互点位后,需要对配送物品进行放置或者取出,此时暂停异常检测,并打开置物舱门,以便于用户对配送物品进行操作。示例性的,在配送机器人响应于用户呼叫,到达配送起始点位后,暂停异常检测,打开置物舱门,等待用户放入待配送的物品。又示例性的,在配送机器人到达配送目标点位后,暂停异常检测,打开置物舱门,等待用户取出配送的物品。
S330、检测到舱门打开后且物品变化稳定后,根据视觉传感器的采集数据识别关门指令。
本发明实施例中,在置物舱门开启后,通过置物舱内托盘实时检测托盘内的物品变化情况,并在物品发生变化(例如,物品增加或者减少),且在变化后的设定时长t内保持稳定,即不再变化,则通过视觉传感器的采集数据识别关门指令。具体的,接收视觉传感器的采集数据,并将采集数据由传感器数据转换为点云数据,并将点云数据转换至机器人坐标系下,进而通过转换后的数据特征与预先设定的关门指令特征进行匹配。如果二者匹配,则表明识别到关门指令。
在送餐等场景中,使用机器人时,用户的动作可能是多次的,例如用户将A菜品放置在机器人第一层后,可能还需要再放置菜品到第二层,然后机器人才开始配送。因此,根据机器人的运行场景确定设定时长t,可以提高机器人运行的稳定性。否则,如果机器人识别到物品发生变化,就开始识别关门指令,而用户在放置菜品的过程中也可能踩到或处于指令识别区域的相应区域内,则可能导致机器人将该动作误识别为关门指令,关闭舱门,可能导致误伤用户、菜品洒出等情况。
示例性的,机器人在到达配送起始点位后,打开置物舱门,等待用户放入待配送的物品。如果检测到用户将待配送的物品放入置物舱,并保持稳定5秒,则根据视觉传感器的采集数据开始识别用户发起的关门指令。又示例性的,在物品配送机器人到达配送目标点位后,打开置物舱门,等待用户取出配送的物品。如果检测到用户取出配送的物品,并保持稳定5秒,则根据视觉传感器的采集数据开始识别用户发起的关门指令。
S340、确认关门指令,则关闭置物舱门,并控制机器人前往下一配送目标点位或返回原点。
本发明实施例中,在处理器识别到关门指令后,关闭置物舱们,并控制机器人前往下一配送目标点位或返回原点。示例性的,机器人达到配送起始点位,并检测到用户放置待配送物品,且保持不变后,识别关门指令。在确认识别到关门指令后,关闭置物舱门,控制机器人前往下一配送目标点位。又示例性的,机器人到达配送目标点位后,并检测到用户取出物品,且置物舱内物品保持不变后,识别关门指令。在确认识别到关门指令后,关闭置物舱门,控制机器人前往下一配送目标点位或者返回原点。
本发明实施例的技术方案,在机器人到达人机交互点位时,打开置物舱门,并在检测到舱门打开后且物品变化稳定后,根据视觉传感器的采集数据识别关门指令,最终确认关门指令,则关闭置物舱门,并控制机器人前往下一配送目标点位或返回原点。通过视觉传感器采集数据识别关门指令,无需用户手动触屏或者发起语音,提高指令识别效率和稳定性,进而提升机器人的配送效率。
实施例四
图4为本发明实施例四提供的一种机器人的结构示意图,本实施例适用于根据安装在机器人视觉传感器的采集数据,识别人机交互指令情况。该机器人400,包括视觉传感器401和处理器,处理器和视觉传感器401通信连接。
视觉传感器401,用于在机器人400向人机交互点位运动过程中以及到达人机交互点位时,将采集数据发送至处理器。
本发明实施例中,视觉传感器401用于在机器人400向人机交互点位运动过程中以及到达人机交互点位时,将采集数据发送至处理器。其中,向人机交互点位运动过程中的采集数据用于进行异常检测,例如,悬崖检测以及障碍物检测等;到达人机交互点位后的采集数据,用于进行人机交互指令的识别。
处理器,用于执行下述机器人交互方法:
在机器人400向人机交互点位运动过程中,通过视觉传感器401的采集数据进行异常检测;
在机器人400到达人机交互点位时,暂停异常检测;
根据视觉传感器401的采集数据识别人机交互指令。
本发明实施例中,处理器安装于机器人400内部,处理器在机器人400向人机交互点位运动过程中收到视觉传感器401的采集数据后,会通过对采集数据进行处理,确定机器人运动路线中的异常检测,例如,障碍物或者地面悬崖等。在机器人400到达人机交互点位后,暂停异常检测过程,并由异常检测模式转换为人机交互指令检测模式。在人机交互指令检测模式下,处理器通过对视觉传感器401的采集数据识别人机交互指令。
可选的,机器人400还包括投影灯403,投影灯403与处理器通信连接;
投影灯403,用于在预设的指令识别区域展示交互指示标识,用于指示用户基于交互指示标识,在相应区域发起交互动作。
可选的,视觉传感器401向下倾斜设置,视觉传感器401安装位置距离地面0.3-2.0米,投影灯403安装位置距离地面0.1-1.0米,且视觉传感器401的安装位置高于投影灯的安装位置。
本可选的实施例中,提供了视觉传感器401和投影灯403的安装位置:视觉传感器401安装位置在机器人400前方距离地面高度为L1,例如,L1取值为0.3-2.0米。示例性的,机器人400高度为1.3米,视觉传感器401安装位置在机器人400前方距离地面1-1.2米处。本方案中视觉传感器401用于采集机器人运动路线上的障碍物,并且为解决用户双手占用无法通过触摸屏与机器人400交互的问题,本方案考虑用户通过脚部发起人机交互指令,即视觉传感器401还用于采集用户通过脚部发起的交互指令。通过上述分析可知,视觉传感器401需要检测的物体均距离地面较近,因此,视觉传感器401选择向下倾斜设置,倾斜角度α与视觉传感器401的安装高度相关,目的为视觉传感器401采集视野下边缘与机器人400前缘相接。例如,向下倾斜且与重力方向夹角为28°-33°。
投影灯403用于投影交互指示标识,交互指示标识用于提示用户发起脚部交互指令,因此,交互指示标识一般投影在机器人400前方地面。鉴于上述投影需求,可以投影灯403设置于机器人400前方距离地面高度L2处,例如,L2取值为0.1-1.0米。为了保证投影灯403投射出的交互指示标识顺利投影至地面,而不被服务员的取餐动作、置物舱门开关等遮挡,可以使投影灯403高度较低,例如,距离地面0.2-0.3米。投影灯403的安装方向为向下倾斜设置,倾斜角度β与投影灯403的安装高度和需要投影的区域相关,可以依据投影灯403的安装高度,以及需要投影的地面位置点确定。例如,投影灯403安装高度L2,投影位置位于机器人400正前方S处的地面,则倾斜角度为arctan(S/L2)。其中,投影的地面位置点需要位于视觉传感器401的采集视野范围内。
值得注意的是,立体视觉传感器401的安装高度大于投影灯403的安装高度,可以扩大立体视觉传感器401的探测视野范围。投影灯403安装在较低位置,可以减少机器人操作以及其他障碍物对于投影的影响。
示例性的,机器人400设置有交互屏402,立体视觉传感器401设置于交互屏402的下端,便于稳定采集机器人400运动方向前下区域的数据。机器人400还设置有激光雷达404,投影灯403设置高于激光雷达404,避免对激光雷达数据采集造成影响。
本发明实施例的技术方案,在机器人向人机交互点位运动过程中,通过视觉传感器的采集数据进行异常检测,在机器人到达人机交互点位时,暂停异常检测,并根据视觉传感器的采集数据识别人机交互指令。通过在机器人的不同工作状态下对视觉传感器的采集数据进行不同处理,实现人机交互,避免触控屏交互在双手占用时交互效率低,以及语音交互在嘈杂环境下出错率高等缺陷,本方案可以在不增加硬件成本的条件下,提升人机交互的效率和可靠性。
实施例五
图5为本发明实施例五提供的一种机器人交互装置的结构示意图。如图5所示,该装置包括:
异常检测模块510,用于在机器人向人机交互点位运动过程中,通过视觉传感器的采集数据进行异常检测;
异常检测暂停模块520,用于在机器人到达所述人机交互点位时,暂停所述异常检测;
指令识别模块530,用于根据所述视觉传感器的采集数据识别人机交互指令。
本发明实施例的技术方案,在机器人向人机交互点位运动过程中,通过视觉传感器的采集数据进行异常检测,在机器人到达人机交互点位时,暂停异常检测,并根据视觉传感器的采集数据识别人机交互指令。通过在机器人的不同工作状态下对视觉传感器的采集数据进行不同处理,实现人机交互,避免触控屏交互在双手占用时交互效率低,以及语音交互在嘈杂环境下出错率高等缺陷,本方案可以在不增加硬件成本的条件下,提升人机交互的效率和可靠性。
可选的,指令识别模块530,包括:
投影灯控制子模块,用于控制所述投影灯在预设的指令识别区域展示交互指示标识,用于指示用户基于所述交互指示标识,在相应区域发起交互动作;
数据采集子模块,用于控制所述视觉传感器,采集所述交互动作关联的采集数据;
交互指令识别子模块,用于对所述采集数据进行识别,得到人机交互指令。
可选的,视觉传感器向下倾斜设置,所述视觉传感器安装位置距离地面0.3-2.0米,所述投影灯安装位置距离地面0.1-1.0米,且所述视觉传感器的安装位置高于所述投影灯的安装位置。
可选的,交互指令识别子模块,包括:
初始点集获取单元,用于将所述采集数据转换为点云数据,并将所述点云数据转换至机器人坐标系中,得到初始点集;
动作点筛选单元,用于对所述初始点集进行筛选,得到所述初始点集中包含的交互动作点;
交互指令确定单元,用于通过对所述交互动作点进行识别,确定人机交互指令。
可选的,动作点筛选单元,包括:
过渡点集筛选子单元,用于在所述初始点集中,筛选出位于所述指令识别区域内的过渡点集;
地面点滤除子单元,用于在所述过渡点集中滤除地面点,得到交互动作点。
可选的,交互指令确定单元,包括:
动作点聚类子单元,用于依据所述交互动作点之间的距离,对所述交互动作点进行聚类,得到至少一个聚类簇;
目标聚类簇确定子单元,用于在所述至少一个聚类簇中,确定包含交互动作点最多的目标聚类簇,并确定所述目标聚类簇中包含目标交互动作点在交互动作点中的数量占比;
交互特征比对子单元,用于在所述数量占比大于设定占比阈值的情况下,依据所述目标聚类簇的轴向尺寸、横向尺寸以及轴向法向量分布状态,确定所述目标聚类簇是否与预设交互特征相符;
交互指令确定子单元,用于在所述目标聚类簇与所述预设交互特征相符的情况下,依据所述目标聚类簇,确定人机交互指令。
可选的,地面点滤除子单元,具体用于执行下述至少一项:
根据预先设定的水平地面高度范围,在所述过渡点集中滤除地面点,得到交互动作点;
将提取的非水平地面的地面参数转换至机器人坐标系,并依据转换后的地面参数滤除过渡点集中的地面点,得到交互动作点。
可选的,交互指令确定子单元,具体用于:
在所述目标聚类簇与所述预设交互特征相符的情况下,获取交互检测计时器的计时时长;所述交互检测计时器用于对识别到交互动作的时长进行计时;
在所述计时时长达到设定时间阈值的情况下,依据所述目标聚类簇,确定人机交互指令。
可选的,人机交互点位包括配送起始点位和配送目标点位至少之一,所述人机交互指令包括关门指令,所述机器人交互装置还包括:
舱门开启模块,用于在机器人到达所述人机交互点位时,打开置物舱门;
指令识别模块530,还用于:
检测到舱门打开后且物品变化稳定后,根据所述视觉传感器的采集数据识别所述关门指令;
确认所述关门指令,则关闭所述置物舱门,并控制所述机器人前往下一配送目标点位或返回原点。
本发明实施例所提供的机器人交互装置可执行本发明任意实施例所提供的机器人交互方法,具备执行方法相应的功能模块和有益效果。
实施例六
图6示出了可以用来实施本发明的实施例的电子设备10的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
如图6所示,电子设备10包括至少一个处理器11,以及与至少一个处理器11通信连接的存储器,如只读存储器(ROM)12、随机访问存储器(RAM)13等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器11可以根据存储在只读存储器(ROM)12中的计算机程序或者从存储单元18加载到随机访问存储器(RAM)13中的计算机程序,来执行各种适当的动作和处理。在RAM 13中,还可存储电子设备10操作所需的各种程序和数据。处理器11、ROM 12以及RAM 13通过总线14彼此相连。输入/输出(I/O)接口15也连接至总线14。
电子设备10中的多个部件连接至I/O接口15,包括:输入单元16,例如键盘、鼠标等;输出单元17,例如各种类型的显示器、扬声器等;存储单元18,例如磁盘、光盘等;以及通信单元19,例如网卡、调制解调器、无线通信收发机等。通信单元19允许电子设备10通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器11可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器11的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器11执行上文所描述的各个方法和处理,例如机器人交互方法。
在一些实施例中,机器人交互方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元18。在一些实施例中,计算机程序的部分或者全部可以经由ROM 12和/或通信单元19而被载入和/或安装到电子设备10上。当计算机程序加载到RAM13并由处理器11执行时,可以执行上文描述的机器人交互方法的一个或多个步骤。备选地,在其他实施例中,处理器11可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行机器人交互方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)、区块链网络和互联网。
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务中,存在的管理难度大,业务扩展性弱的缺陷。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。
Claims (12)
1.一种机器人交互方法,其特征在于,应用于机器人的处理器,所述机器人设置有视觉传感器,所述方法包括:
在机器人向人机交互点位运动过程中,通过所述视觉传感器的采集数据进行异常检测;
在机器人到达所述人机交互点位时,暂停所述异常检测;
根据所述视觉传感器的采集数据识别人机交互指令。
2.根据权利要求1所述的方法,其特征在于,所述机器人还设置有投影灯,所述根据所述视觉传感器的采集数据识别人机交互指令,包括:
控制所述投影灯在预设的指令识别区域展示交互指示标识,用于指示用户基于所述交互指示标识,在相应区域发起交互动作;
控制所述视觉传感器,采集所述交互动作关联的采集数据;
对所述采集数据进行识别,得到人机交互指令。
3.根据权利要求2所述的方法,其特征在于,所述视觉传感器向下倾斜设置,所述视觉传感器安装位置距离地面0.3-2.0米,所述投影灯安装位置距离地面0.1-1.0米,且所述视觉传感器的安装位置高于所述投影灯的安装位置。
4.根据权利要求2所述的方法,其特征在于,所述对所述采集数据进行识别,得到人机交互指令,包括:
将所述采集数据转换为点云数据,并将所述点云数据转换至机器人坐标系中,得到初始点集;
对所述初始点集进行筛选,得到所述初始点集中包含的交互动作点;
通过对所述交互动作点进行识别,确定人机交互指令。
5.根据权利要求4所述的方法,其特征在于,所述对所述初始点集进行筛选,得到所述初始点集中包含的交互动作点,包括:
在所述初始点集中,筛选出位于所述指令识别区域内的过渡点集;
在所述过渡点集中滤除地面点,得到交互动作点。
6.根据权利要求4所述的方法,其特征在于,所述通过对所述交互动作点进行识别,确定人机交互指令,包括:
依据所述交互动作点之间的距离,对所述交互动作点进行聚类,得到至少一个聚类簇;
在所述至少一个聚类簇中,确定包含交互动作点最多的目标聚类簇,并确定所述目标聚类簇中包含目标交互动作点在交互动作点中的数量占比;
在所述数量占比大于设定占比阈值的情况下,依据所述目标聚类簇的轴向尺寸、横向尺寸以及轴向法向量分布状态,确定所述目标聚类簇是否与预设交互特征相符;
在所述目标聚类簇与所述预设交互特征相符的情况下,依据所述目标聚类簇,确定人机交互指令。
7.根据权利要求5所述的方法,其特征在于,所述在所述过渡点集中滤除地面点,得到交互动作点,包括下述至少一项:
根据预先设定的水平地面高度范围,在所述过渡点集中滤除地面点,得到交互动作点;
将提取的非水平地面的地面参数转换至机器人坐标系,并依据转换后的地面参数滤除过渡点集中的地面点,得到交互动作点。
8.根据权利要求6所述的方法,其特征在于,所述依据所述目标聚类簇,确定人机交互指令,包括:
在所述目标聚类簇与所述预设交互特征相符的情况下,获取交互检测计时器的计时时长;所述交互检测计时器用于对识别到交互动作的时长进行计时;
在所述计时时长达到设定时间阈值的情况下,依据所述目标聚类簇,确定人机交互指令。
9.根据权利要求1所述的方法,其特征在于,所述人机交互点位包括配送起始点位和配送目标点位至少之一,所述人机交互指令包括关门指令,所述方法还包括:
在机器人到达所述人机交互点位时,打开置物舱门;
所述根据所述视觉传感器的采集数据识别人机交互指令,包括:
检测到舱门打开后且物品变化稳定后,根据所述视觉传感器的采集数据识别所述关门指令;
确认所述关门指令,则关闭所述置物舱门,并控制所述机器人前往下一配送目标点位或返回原点。
10.一种机器人,其特征在于,包括:视觉传感器以及处理器;所述处理器和所述视觉传感器通信连接;
所述视觉传感器,用于在机器人向人机交互点位运动过程中以及到达所述人机交互点位时,将采集数据发送至所述处理器;
所述处理器,用于执行权利要求1-9中任一项所述的机器人交互方法。
11.一种机器人交互装置,其特征在于,包括:
异常检测模块,用于在机器人向人机交互点位运动过程中,通过视觉传感器的采集数据进行异常检测;
异常检测暂停模块,用于在机器人到达所述人机交互点位时,暂停所述异常检测;
指令识别模块,用于根据所述视觉传感器的采集数据识别人机交互指令。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-9中任一项所述的机器人交互方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310545904.1A CN116352723B (zh) | 2023-05-16 | 2023-05-16 | 一种机器人交互方法、机器人、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310545904.1A CN116352723B (zh) | 2023-05-16 | 2023-05-16 | 一种机器人交互方法、机器人、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116352723A true CN116352723A (zh) | 2023-06-30 |
CN116352723B CN116352723B (zh) | 2023-08-15 |
Family
ID=86909596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310545904.1A Active CN116352723B (zh) | 2023-05-16 | 2023-05-16 | 一种机器人交互方法、机器人、装置及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116352723B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070192910A1 (en) * | 2005-09-30 | 2007-08-16 | Clara Vu | Companion robot for personal interaction |
CN109767556A (zh) * | 2018-12-25 | 2019-05-17 | 苏宁易购集团股份有限公司 | 一种移动售货的方法及机器设备 |
CN210968901U (zh) * | 2018-01-18 | 2020-07-10 | 西南交通大学 | 一种监护机器人装置 |
CN212096376U (zh) * | 2020-04-27 | 2020-12-08 | 北京乐动世纪科技有限公司 | 一种多功能智能机器人 |
CN114516046A (zh) * | 2022-01-29 | 2022-05-20 | 上海擎朗智能科技有限公司 | 一种自主移动设备、开关门控制方法、装置和存储介质 |
CN218698843U (zh) * | 2022-04-02 | 2023-03-24 | 精澳(深圳)智能设备有限公司 | 一种自动托盘送餐机器人 |
-
2023
- 2023-05-16 CN CN202310545904.1A patent/CN116352723B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070192910A1 (en) * | 2005-09-30 | 2007-08-16 | Clara Vu | Companion robot for personal interaction |
CN210968901U (zh) * | 2018-01-18 | 2020-07-10 | 西南交通大学 | 一种监护机器人装置 |
CN109767556A (zh) * | 2018-12-25 | 2019-05-17 | 苏宁易购集团股份有限公司 | 一种移动售货的方法及机器设备 |
CN212096376U (zh) * | 2020-04-27 | 2020-12-08 | 北京乐动世纪科技有限公司 | 一种多功能智能机器人 |
CN114516046A (zh) * | 2022-01-29 | 2022-05-20 | 上海擎朗智能科技有限公司 | 一种自主移动设备、开关门控制方法、装置和存储介质 |
CN218698843U (zh) * | 2022-04-02 | 2023-03-24 | 精澳(深圳)智能设备有限公司 | 一种自动托盘送餐机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN116352723B (zh) | 2023-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210149554A1 (en) | Method and a device for controlling a moving object, and a mobile apparatus | |
EP3199083B1 (en) | Cleaning robot and method for controlling cleaning robot | |
WO2019128066A1 (zh) | 信息处理方法及装置、电子设备及存储介质 | |
US11547261B2 (en) | Moving robot and control method thereof | |
CN110235156A (zh) | 一种送餐数据处理方法和送餐设备 | |
US20110267258A1 (en) | Image based motion gesture recognition method and system thereof | |
CN111906780B (zh) | 物品配送方法、机器人和介质 | |
US11439292B2 (en) | System and method for recommending object placement | |
CN112537705B (zh) | 机器人乘梯调度方法、装置、终端设备及存储介质 | |
CN112515563A (zh) | 障碍物的避让方法、扫地机器人及可读存储介质 | |
CN112693987B (zh) | 一种清洁电梯的方法及机器人 | |
EP3621000A1 (en) | Operation assist device | |
CN112506191A (zh) | 一种餐品自动配送方法、系统、机器人及存储介质 | |
CN106444825A (zh) | 飞行器、控制终端、飞行器的控制方法及控制装置 | |
CN112630786A (zh) | 基于2d激光的agv缓存区盘点方法、装置及设备 | |
CN114227698B (zh) | 一种机器人的控制方法、装置、设备及存储介质 | |
CN116352723B (zh) | 一种机器人交互方法、机器人、装置及存储介质 | |
CN113610004A (zh) | 一种图像处理方法、机器人及介质 | |
CN113627323A (zh) | 一种图像处理方法、机器人及介质 | |
CN114516046B (zh) | 一种自主移动设备、开关门控制方法、装置和存储介质 | |
CN115933685A (zh) | 一种巡检清洁方法、装置、设备及存储介质 | |
CN115724325A (zh) | 光幕误触检测方法、装置、电子设备和存储介质 | |
CN115937979A (zh) | 一种对象行为检测方法、装置、电子设备和存储介质 | |
CN113510707A (zh) | 一种机器人的控制方法、装置、电子设备及存储介质 | |
CN112482919B (zh) | 一种柜门的控制方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |