CN113787517B - 自移动机器人控制方法、装置、设备及可读存储介质 - Google Patents

自移动机器人控制方法、装置、设备及可读存储介质 Download PDF

Info

Publication number
CN113787517B
CN113787517B CN202110959732.3A CN202110959732A CN113787517B CN 113787517 B CN113787517 B CN 113787517B CN 202110959732 A CN202110959732 A CN 202110959732A CN 113787517 B CN113787517 B CN 113787517B
Authority
CN
China
Prior art keywords
target object
moving
self
robot
dtof
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110959732.3A
Other languages
English (en)
Other versions
CN113787517A (zh
Inventor
饶铸
高超
杨晓璐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ecovacs Robotics Suzhou Co Ltd
Original Assignee
Ecovacs Robotics Suzhou Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ecovacs Robotics Suzhou Co Ltd filed Critical Ecovacs Robotics Suzhou Co Ltd
Priority to CN202311117405.9A priority Critical patent/CN117148836A/zh
Priority to CN202110959732.3A priority patent/CN113787517B/zh
Publication of CN113787517A publication Critical patent/CN113787517A/zh
Priority to PCT/CN2022/109522 priority patent/WO2023020269A1/zh
Application granted granted Critical
Publication of CN113787517B publication Critical patent/CN113787517B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/24Floor-sweeping machines, motor-driven
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

本申请公开了一种自移动机器人控制方法、装置、设备及可读存储介质,自移动机器人根据用户发出的语音信号确定声源方向,并确定自身周围的移动对象。之后,从自身周围的移动对象中确定出位于声源方向的目标对象,根据目标对象确定工作区域,并移动至工作区域并执行任务。采用该种方案,由于自移动机器人从移动对象中确定出目标对象,移动对象具有准确的空间位置。因此,自移动机器人能够根据声源方向从多个移动对象中准确确定出目标对象,并准确到达工作区域,无需借助客户端,过程简单、灵活。而且,该方案适用于所有激光类自移动机器人,成本低、算法简单、需要的算力低。

Description

自移动机器人控制方法、装置、设备及可读存储介质
技术领域
本申请涉及人工智能技术领域,特别涉及一种自移动机器人控制方法、装置、设备及可读存储介质。
背景技术
随着人工智能技术的发展,各种机器人越来越多地进入人们的生活,比如物流机器人、扫地机器人、割草机器人、迎宾机器人等。
语音控制方式是一种常见的机器人控制方式。采用语音控制方式时,机器人预先存储环境地图,环境地图中标识出各个工作区域,如小明的房间、客厅等。用户发出指示工作区域的语音指令后,机器人根据语音指令确定工作区域并在工作区域内工作。例如,用户语音控制扫地机器人清扫某个房间、清扫某件家具周围等。再如,用户语音控制割草机器人在目标区域内割草。
上述语音控制方法需要预先存储环境地图。若用户临时指定工作区域,则需要借助APP等在环境地图中标记该工作区域,过程繁琐、灵活度差。
发明内容
本申请实施例提供一种自移动机器人控制方法、装置、设备及可读存储介质,自移动机器人通过跟随用户确定出工作区域,过程简单、灵活度高且容易实现。
第一方面,本申请实施例提供一种自移动机器人控制方法,包括:
根据用户发出的语音信号确定声源方向;
确定自移动机器人周围的移动对象;
从所述移动对象中确定出位于所述声源方向的目标对象;
根据所述目标对象确定工作区域;
移动至所述工作区域并在所述工作区域内执行任务。
第二方面,本申请实施例提供一种自移动机器人控制装置,包括:
第一确定模块,用于根据用户发出的语音信号确定声源方向;
第二确定模块,用于确定自移动机器人周围的移动对象;
第三确定模块,用于从所述移动对象中确定出位于所述声源方向的目标对象;
处理模块,用于根据所述目标对象确定工作区域;
执行模块,用于移动至所述工作区域并在所述工作区域内执行任务。
第三方面,本申请实施例提供一种自移动机器人,包括:处理器、存储器及存储在所述存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时使得所述自移动机器人实现如上第一方面或第一方面各种可能的实现方式所述的方法。
第四方面,本申请实施例提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机指令,所述计算机指令在被处理器执行时用于实现如上第一方面或第一方面各种可能的实现方式所述的方法。
第五方面,本申请实施例提供一种包含计算程序的计算机程序产品,所述计算机程序被处理器执行时实现如上第一方面或第一方面各种可能的实现方式所述的方法。
本申请实施例提供的自移动机器人控制方法、装置、设备及可读存储介质,自移动机器人根据用户发出的语音信号确定声源方向,并确定自身周围的移动对象。之后,从自身周围的移动对象中确定出位于声源方向的目标对象,根据目标对象确定工作区域,并移动至工作区域并执行任务。采用该种方案,由于自移动机器人从移动对象中确定出目标对象,移动对象具有准确的空间位置。因此,自移动机器人能够根据声源方向从多个移动对象中准确确定出目标对象,并准确到达工作区域,无需借助客户端,过程简单、灵活。而且,该方案适用于所有激光类自移动机器人,成本低、算法简单、需要的算力低。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A是本申请实施例提供的自移动机器人控制方法的实施环境示意图;
图1B是本申请实施例提供的扫地机器人的一个结构示意图;
图1C是自移动机器人的声音信号采集装置的结构示意图;
图1D是本申请实施例提供的扫地机器人的另一个结构示意图;
图2A是本申请实施例提供的自移动机器人的一个语音控制流程图;
图2B是本申请实施例提供的自移动机器人的另一个语音控制流程图;
图2C是本申请实施例提供的自移动机器人的另一个语音控制流程图;
图3是本申请实施例提供的自移动机器人控制方法的流程图;
图4是本申请实施例提供的自移动机器人控制方法的另一个流程图;
图5是确定目标对象的流程图;
图6所示为SLAM图;
图7所示为DTOF散点图;
图8是本申请实施例提供的自移动机器人控制方法中基于AI相机的跟随流程图;
图9是自移动机器人保持跟随状态的流程图;
图10是自移动机器人的结构示意图;
图11为本申请实施例提供的一种自移动机器人控制装置的结构示意图;
图12为本申请实施例提供的一种自移动机器人的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
随着科学技术的进步,机器人已经走进越来越多人的生活,在人们的生活中扮演着重要的角色。目前,机器人可根据用户的语音指令到达指定工作区域工作。以扫地机为例,扫地机预先构建并存储环境地图。当用户想要清扫某个区域时,向扫地机发出包含该区域的语音指令,例如“清扫小明的房间”等。
另外,有时候用户会临时指定工作区域。例如,用户期望扫地机清扫自己所在位置附近,即用户在哪扫地机扫哪,该种功能即为俗称的在哪扫哪功能。用户每次所处的位置具有随机性,若用户每次借助APP等在环境地图中标记工作区域,则过程繁琐、灵活度差。
基于此,本申请实施例提供一种自移动机器人控制方法、装置、设备及可读存储介质,自移动机器人通过跟随用户确定出工作区域,过程简单、灵活度高且容易实现。
图1A是本申请实施例提供的自移动机器人控制方法的实施环境示意图。请参照图1A,该实施环境包括自移动机器人,自移动机器人例如为扫地机器人、自移动空气净化机器人、自动割草机、擦窗机器人、太阳能电池板清洁机器人、管家机器人、无人飞行器、自动引导车(Automated Guided Vehicle,AGV)、安防机器人、迎宾机器人、看护机器人等。
自移动机器人上设置麦克风等声音信号采集装置,能够采集用户发出的语音信号。自移动机器人采集到语音信号后,对语音信号进行识别得到语音指令,并执行语音指令指示的任务。实际中,自移动机器人自身可以对语音信号进行识别。或者,自移动机器人与语音识别服务器(图中未示意出)建立网络连接,自移动机器人采集到语音信号后,向语音识别服务器发送语音信号,以使得语音识别服务器对语音信号进行识别,并将识别到的语音指令发送给自移动机器人。
下面,以自移动机器人为扫地机器人为例,对自移动机器人的结构进行详细说明。
图1B是本申请实施例提供的扫地机器人的一个结构示意图。以下将扫地机器人简称为机器人,请参照图1B,“→”代表语音信号的传播方向。该机器人包括机器人外壳1、驱动元件、凸起结构2和语音信号采集装置3;其中,驱动元件设置在机器人外壳1内,其用于驱动机器人外壳1移动;凸起结构2设置在机器人外壳1的上表面10,语音信号采集装置3设置在该凸起结构2上。
再请参照图1B,机器人外壳1包括顶板、环形侧板和底板,该顶板、环形立板和底板围合拼装形成容纳腔室,容纳腔室内容置有控制单元和驱动元件。另外,机器人还包括设置在机器人外壳1上的驱动轮6、边刷7、滚刷或风机等功能元件,其中,驱动轮6用于在驱动元件作用下带动机器人行驶,边刷7和滚刷在收到控制单元的信号后清扫工作面,风机则是用于在尘盒内形成负压腔,以将工作面上的灰尘、杂物等吸入尘盒除尘。需要说明的是,上述这些功能元件的结构及工作原理与现有扫地机器人基本相同,本领域技术人员基于现有技术完全可以实现,故而本文在此不再赘述。
机器人外壳1的顶板的上表面10凸起设置有凸起结构2。在一些实施例中,凸起结构2和顶板一体加工成型。另一些实施例中,凸起结构2和顶板分体独立加工成型,然后凸起结构2通过粘接、螺纹连接等方式固定连接在顶板的上表面10。该凸起结构2上设置了声音信号采集装置3。
通常情况下,机器人的自身的噪音由驱动元件、边刷7、滚刷和/或风机等功能产生,并且这些部件位于容纳腔内或其底部,本发明中将声音信号采集装置设置在凸起设置于机器人外壳1的上表面10的凸起结构2上,以使声音信号采集装置3远离机器人的噪音源,来降低机器人自身发出的噪音对声音信号采集装置3的干扰,以便使机器人能更加准确的采集到用户语音控制指令。该用户语音控制指令包括开始扫地、播放音乐、停止扫地、去充电等,本领域技术人员可以根据机器人实际需求设定相应的功能。
图1C是自移动机器人的声音信号采集装置的结构示意图。请参照图1C,该声音信号采集装置3包括麦克风(MIC)。详细地,在一些实施例中,该声音信号采集装置3包括PCB板30(印制电路板)、减震罩壳31和麦克风芯片32;其中,减震罩壳31设置在PCB板30上并与PCB板30围成了具有容纳腔的声音信号采集装置3外部封装,麦克风芯片32设置在该容纳腔中,减震罩壳31顶部的中心区域设置有连通外部与容纳腔的拾音孔310。PCB板30与麦克风芯片32和机器人的控制单元都通信连接,麦克风芯片32从拾音孔310采集外部的声音信号后通过PCB板30传输给控制单元,控制单元控制机器人执行声音信号包含的用户语音控制指令。
需要说明的是,其中,声音信号采集装置3的减震罩壳31一方面可以减少机器人工作过程中产生的震动对声音信号采集装置3的影响,另一方面减震罩壳31可以吸收来自机器人自身的噪音,而拾音孔310开设在减震罩壳31顶部的中心区域,其仅采集来自于顶部的声音信号(通常为用户发出的语音控制指令)。尤其是对于扫地机器人来说,扫地机器人一般在地面工作而用户则从高处发出语音控制,位于减震罩壳31顶部中心区域的拾音孔310能比较容易采集到用户语音控制的声音信号,而机器人自身发出的噪音能被环绕拾音孔310的减震罩壳31阻隔,能够减少其对声音信号采集装置3采集信号的干涉。在另一些实施例中,该减震罩壳31包括减震泡棉,可以理解减震泡棉不仅可以阻挡来自机器人自身的噪音进入拾音孔310,还可以吸收部分噪音。
继续参见图1C,该声音信号采集装置3还包括防水防尘膜33,该防水防尘膜33设置在减震罩壳31上并且遮盖拾音孔310,以防止水或灰尘通过拾音孔310落到麦克风芯片32上,而影响到麦克风芯片32的采集声音信号的效果。
继续参见图1C,本实施例中,声音信号采集装置3还包括上盖34,上盖将减震罩壳31压紧在PCB板上,并且通过螺钉(图中未示出)等连接件固定连接在凸起结构2上或距离传感器3上,从而实现声音信号采集装置3和机器人外壳1之间的固定连接关系,以防止机器人行驶过程中声音信号采集装置3从机器人外壳1上脱落。另外,上盖34的顶部中心区域上与减震罩壳31的拾音孔的对应位置也开设了拾音孔。
进一步地,为了增强声音信号采集装置3采集声音信号的能力,要尽量保证声音信号传播路径短宽,在一些实施例中,通过限定拾音孔310的孔径孔深比来实现上述目的,具体地,拾音孔310的孔径(d1)孔深(d2)比尽量大于1。在更加具体的实施例中,拾音孔310的孔径(d1)孔深(d2)比大于2:1。
为了能使机器人更好的采集到用户语音控制的声音信号,在一些实施例中,机器人至少包括三个声音信号采集装置3,并且这些声音信号采集装置3环形均匀分布。环形均布的多个声音信号采集装置3可以均衡的采集到从各个角度传输过来的声音信号,以保证所采集的用户语音控制信号的准确性和连贯性。
图1D是本申请实施例提供的扫地机器人的另一个结构示意图。请参照图1D,机器人包括三个声音信号采集装置3,这三个声音信号采集装置3环形均匀分布,即三个声音信号采集装置3位于一个圆上,每个声音信号采集装置3至圆心的距离均为该圆的半径,并且相邻两个声音信号采集装置3的之间的圆心角为120°(度)。并且,为了使多个声音信号采集装置3的声音信号采集能力最佳,至少三个声音信号采集装置3环形均匀分布的圆的直径位于60mm~100mm范围内。
在另一些实施例中,机器人包括三个声音信号采集装置3,这三个声音信号采集装置3呈三角形分布,并且三个声音信号采集装置3中一个相对于另外两个位于机器人外壳1的上表面10的前部。这三个声音信号采集装置3可以环形均布,也就是说这三个声音信号采集装置3位于三角形的外切圆上并且相邻两个声音信号采集装置3之间的圆心角为120°(度)。
当然,在另一些实施例中,这三个声音信号采集装置3无需环形均匀分布,只需保证其以一前两后的排布方式分布即可。这种排布方式的优势在于,扫地机器人向前行驶时,用户发出的语音控制指令因在空气等介质中传输延迟,机器人外壳1上表面10的前部声音信号采集装置3仅会采集到少量声音信号,而大部分声音信号需要由位于后部的声音信号采集装置3采集,在后部多设置声音信号采集装置3可以能更好的采集到声音信号,保证采集的声音信号的准确性。
进一步地,为了能使声音信号采集装置3采集声音信号效果最佳,在一些实施例中还给出了声音信号采集装置3选型标准,具体为:选择全向型数字麦克风,其信噪比(Signal-to-noise ratio,SNR)大于64dB(A),灵敏度保证-26+3dBFS,声学过载点(Acoustic Overload Point,AOP)保证120Db SPL,总谐波失真(total harmonicdistortion,THD)94dB SPL@1kHz处最好低于0.5%。
进一步地,在一些实施例中,机器人还包括距离传感器4,该距离传感器4设置在机器人外壳1上,并且其用于测量机器人移动方向前方障碍物和机器人之间的距离,以便两者之间的距离达到设定阈值时,机器人可以停止运动或者改变运动路径,以防止机器人和障碍物相撞。在另一些实施例中,该距离传感器4可转动的设置在机器人外壳1上,其可以相对于机器人外壳360度旋转以检测工作空间内家具、墙面等布局,继而描绘出工作空间内地图,并且根据描绘出的地图工作,以提高工作效率。
该距离传感器4包括DTOF和LDS。在一些实施例中,该距离传感器4设置在上述凸起结构2上,声音信号采集装置3则设置在距离传感器4上。由此可见,距离传感器4和声音信号采集装置3可以利用凸起结构2,无需为各自单独设置凸起,可以尽可能的简化机器人的结构,降低其制造成本。
而在另一些实施例中,凸起结构2包括距离传感器4,也就是说,距离传感器4直接设置在机器人外壳1的上表面上形成一个凸起结构2,而声音信号采集装置3则设置在距离传感器4,也即声音信号采集装置3设置在距离传感器4形成的凸起结构2上。距离传感器4直接设置在机器人外壳1的上表面形成凸起结构2,而声音信号采集装置3利用其距离传感器4自身特点凸起设置在机器人外壳1上,无需另外设置凸起结构,整体结构简单,成本低。
另一方面,距离传感器4在机器人外壳1的上表面10,可以很好地避开机器人自身的其他结构,从而能准确感应到障碍物的位置。而,声音信号采集装置3则可以尽可能的远离机器人的驱动电机、滚刷、边刷7和风机等产生噪音的部件,能降低机器人自身产生的噪音对声音信号的干涉。
另一些实施例中,该机器人还包括声音信号播放装置5,该声音信号播放装置5可以为扬声器(喇叭),该声音信号播放装置5设置在机器人外壳1上,并且该声音信号播放装置5和机器人的控制单元通信连接,控制单元设置有机器人的播音工作模式,比如播放音乐等。当用户通过遥控器或APP控制机器人进入该播音工作模式后,存储在控制单元内的音乐通过声音信号播放装置5播放出来。
为了防止声音信号播放装置5播放的声音信号干涉声音信号采集装置3采集用户发出的语音控制的声音信号,在一些实施例中声音信号采集装置3的拾音孔310和声音信号播放装置5的放音孔的朝向不同方向。更为具体地,声音信号采集装置3的拾音孔310朝向垂直于所述机器人外壳1的上表面10,而声音信号播放装置5的放音孔朝向垂直于所述机器人外壳1的外立面11,也就是说,声音信号采集装置3的拾音孔310和声音信号播放装置5的放音孔的朝向成90°(度)夹角设置。
需要说明的是,通常情况下,机器人外壳1的上表面10和外立面11相互垂直设置,当然,在满足声音信号采集装置3的拾音孔310和声音信号播放装置5的放音孔的朝向不同方向的情况下,机器人外壳1的上表面10和外立面11成其他夹角设置。
进一步地,在一些实施例中,声音信号播放装置5位于机器人外壳1的前部,而声音信号采集装置3位于机器人外壳1的后部。而,在另一些实施例中,声音信号播放装置5位于机器人外壳1的后部,而声音信号采集装置3位于机器人外壳1的后部。机器人外壳1的前部和后部的划分标准是基于机器人外壳1的形状沿前后将其一分为二,其中,位于机器人外壳1前侧的区域为前部,位于机器人外壳1后侧的区域为后部。例如:以图1C所示的实施例为例,该圆形机器人外壳1沿前后方向划分为前半圆区域和后半圆区域,将前半圆区域界定前部,将后半圆区域界定为后部。
可以理解,声音信号采集装置3和声音信号播放装置5中一者位于机器人外壳1的前部,另一者位于机器人外壳1的后部,以使两者之间保持足够远的距离,从而进一步地减少机器人自身播放的声音信号对声音信号采集装置3的干涉,机器人能够更加精准的采集到用户的语音控制指令并准确的执行该指令,继而能给用户提供更好的使用体验。
更进一步的,为了减少机器人自身播放的声音信号对声音信号采集装置3的干涉,在一些实施例中,该机器人还包括声音信号回采装置,该声音信号回采装置与机器人的控制单元和声音信号播放装置5通信连接,其用于回采声音信号播放装置5的声音信号,控制单元接受声音信号回采装置回采的声音信号,并且从声音信号采集装置3采集的声音信号中过滤回采的声音信号,再将过滤后的声音信号包含的指令传动给执行元件,控制执行元件执行该指令。
在一些实施例中,声音信号回采装置包括滤波式回采电路,该滤波式回采电路通过导线和机器人本体的控制单元电连接,并且通过导线和声音信号播放装置电连接。
除了声音信号回采装置外,在一些实施例中,机器人还包括声音信号降噪装置,该声音信号降噪装置与声音信号采集装置3和控制单元均通信连接,其用于对声音信号采集装置3采集到的声音信号进行降噪处理,以消除采集到的声音信号的杂音或无效声音信号部分。
除了上述机器人外,本发明还提供一种适用于上述机器人的控制方法,以消除声音信号采集装置3采集到的无效声音信号,尤其是要消除机器人本身发出的声音信号对声音采集信号的信号采集造成的干涉。示例性的,请参照图2A。
图2A是本申请实施例提供的自移动机器人的一个语音控制流程图。本实施例包括:
S1、使用声音信号采集装置3采集声音信号;
其中,声音信号采集装置3采集的声音信号主要包括用户对机器人的语音控制指令,例如机器人使用声音信号采集装置3等声音信号采集装置3采集用户的语音控制所包含的声音信号。但是,实践中,机器人在工作过程中其驱动电机、边刷7、滚刷和/或风机等功能元件也能产生声音信号,或者是机器人本身也具备产生声音信号的能力,比如机器人在工作过程中或停机状态下可以播放音乐、朗读书籍等,由于声音信号采集装置3主要功能是采集用户语音控制而言,本文将机器人自身产生的这些声音信号统称为“无效声音信号”。基于此,为了消除这些无效声音信号对声音信号采集装置3采集信号的干涉,本发明的机器人的控制方法还包括如下步骤:
S2、过滤声音信号采集装置3采集的声音信号中由机器人自身播放的声音信号后得到有效声音信号。
图2B是本申请实施例提供的自移动机器人的另一个语音控制流程图。请参照图2B,在一些实施例中,该控制方法中实现步骤S2的方法包括如下步骤:
S20、回采机器人自身播放的声音信号作为无效声音信号;
S21、从声音信号采集装置3采集到的声音信号中过滤该无效声音信号后得到有效声音信号。
详细地,在机器人中设置声音信号播放装置5,该声音信号播放装置5可以为扬声器(喇叭),该声音信号播放装置5设置在机器人外壳1上,并且该声音信号播放装置5和机器人的控制单元通信连接,控制单元设置有机器人的工作模式,比如播放音乐等,当用户通过遥控器或APP控制机器人进入该控制模式后,存储在控制单元内的音乐通过声音信号播放装置5播放出来。
该机器人还包括声音信号回采装置,该声音信号回采装置与机器人的控制单元和声音信号播放装置5通信连接,其用于回采声音信号播放装置5的声音信号,控制单元接受声音信号回采装置回采的声音信号并且从声音信号采集装置3采集的声音信号中过滤回采的声音信号,再将过滤后的声音信号包含的指令传动给执行元件,控制执行元件执行该指令。
图2C是本申请实施例提供的自移动机器人的另一个语音控制流程图。本实施例中,该控制方法中实现步骤S2的方法包括如下步骤:
S20'、判断机器人是否处于播音工作模式;
S21'、若是,则获取机器人在播音工作模式下播放的声音信号作为无效声音信号;
S22'、从声音信号采集装置3采集的声音信号中过滤该无效声音信号后得到有效声音信号。
此外,在另一些实施例中,本发明的控制方法中使用声音信号采集装置3采集声音信号后,先对声音信号降噪处理,然后再过滤声音信号中由机器人播放的声音信号后得到有效声音信号,以进一步地消除处用户语音控制指令外其他声音信号的影响。
从步骤S2中得到有效声音信号后,该控制方法则执行如下步骤:
S3、执行该有效声音信号包含的控制指令,实现机器人与用户之间的语音互动,从而提高用户的使用体验。
应用场景举例如下:
一、当前扫地机器人正在清扫地面,用户发出“播放音乐”的语音控制指令,机器人采集到该指令后开始播放存储的音乐。当然,用户也可以根据机器人内存储的音频资料点播需要的音乐,语音控制指令中只需包含该音乐名称即可。
二、当前扫地机器人处于停机或待机状态,用户发出“扫地”的语音控制指令,机器人采集到该指令后开始根据预定路线清扫地面。
三、当前扫地机器人正在清扫地面并且同时在播放音乐,用户发出“停止播放音乐”的语音控制指令,机器人采集到该指令并且过滤掉播放音乐产生的无效声音信号后停止播放音乐。
图3是本申请实施例提供的自移动机器人控制方法的流程图。本实施例的执行主体是自移动机器人。本实施例包括:
301、根据用户发出的语音信号确定声源方向。
示例性的,自移动机器人上的麦克风阵列包含多个麦克风,自移动机器人可根据各麦克风接收语音信号的时间差或声音强度等确定出声源方向。
语音信号通常包括位置关键字,如“来这里扫”、“扫这里”、“过来这里”等。
自移动机器人确定出声源后,旋转一定角度使得自移动机器人的正面朝向用户。自移动机器人的正面朝向用户是指自移动机器人的摄像头朝向用户。
302、确定自移动机器人周围的移动对象。
虽然自移动机器人行进过程中,能够根据即时定位与地图构建(SimultaneousLocalization and Mapping,SLAM)算法构建环境地图、规划路径等,但是基于SLAM算法得到的环境地图中仅包含静止物体。
本申请实施例中,自移动机器人上设置直接飞行时间法(Direct Time-of-Flight,DTOF)传感器等3D传感器或AI相机,利用3D传感器或AI相机采集的图像等,能够确定出自移动机器人周围的移动对象。
自移动机器人行进过程中,DTOF传感器快速、连续地对周围环境进行360度扫描,利用前后两帧或几帧之间的差异来提取移动对象,并根据移动对象的移动轨迹、运动模式等从多个移动对象中分离出行人,将位于声源方向的行人作为目标对象,进而对目标对象进行跟踪。
自移动设备周围可能有一个或多个移动对象。例如,自移动设备为扫地机,扫地机在客厅里工作,客厅里移动的对象包括小孩、大人、小猫小狗、皮球等。303、从所述移动对象中确定出位于所述声源方向的目标对象。
示例性的,移动对象可能位于自移动机器人周围360度任意一个方向。自移动机器人确定出移动对象后,进一步确定每个移动对象相对于自移动机器人的方向。确定出每个移动对象的方向后,将方向与声源方向相同的移动对象作为目标对象,目标对象即为步骤301中发出语音信号的用户。若每个对象的方向与声源方向均不重合,则将方向与声源方向相近的移动对象作为目标对象。
由于基于3D传感器确定出的目标对象具有深度信息,使得自移动机器人能够确定出移动对象在空间中的位置,进而确定出自移动机器人和目标对象之间的初始距离。
304、根据所述目标对象确定工作区域。
自移动机器人确定出目标对象后,向着目标对象行进。若目标对象自发出语音信号后一直未发生位移,则根据目标对象的初始位置确定工作区域。例如,以目标对象的初始位置为中心,2米为半径画圆,将圆形区域作为工作区域。可以理解的是,如果画圆过程中遇到墙壁等物体,则结合物体轮廓和圆确定工作区域。采用该种方案,实现自移动机器人精准到达用户的指定区域的目的。
若目标对象自发出语音信号后发生位移,或者,当自移动机器人行进至目标对象附近后目标对象发生位移,则自移动机器人跟随目标对象移动,直到目标对象停止移动。之后,自移动机器人根据目标对象停止移动时的位置确定所述工作区域。该方案中,实现引导自移动机器人到达指定位置并执行任务的目的。
305、移动至所述工作区域并在所述工作区域内执行任务。
示例性的,若目标对象未发生位移,则自移动机器人根据自身所在位置和目标对象的位置规划路径,并控制自移动机器人按照该路径移动至目标对象附近。之后,在工作区域内执行任务。其中,路径的长度约为自移动机器人和目标对象之间的初始距离的长度。
若目标对象发生位移,则自移动按照路径移动至目标对象附近后,跟随目标对象继续移动,直到目标对象停止移动。之后,在工作区域内执行任务。
需要说明的是,虽然利用传统视觉传感器导航也能够实现在哪扫哪功能。例如,用户对扫地机器人说:“小Q,来这里扫”。扫地机器人识别语音信号后转向用户,然后根据视觉跟踪导航到达用户所在位置,在用户所在位置的附近区域执行清扫任务。但是该种实现方式有如下弊端:视觉跟踪导航没有深度信息,只能确定出用户在平面的位置,无法确定出用户在空间内的准确位置,导航过程非常的不流畅、体验不好。而且,若用户发生位移则容易跟丢,体验不好。其中,传统的视觉传感器例如为平面相机等。
然而,本申请实施例中,并未采用传统视觉导航方式,而是采用3D传感器,如激光类传感器,激光传感器例如为DTOF传感器。基于3D传感器每个移动对象具有深度信息,使得自移动机器人能够确定出移动对象在空间中的位置,进而确定出自移动机器人和目标对象之间的初始距离。因此,行进过程中,自移动机器人能够准确的到达工作区域。
本申请实施例提供的自移动机器人控制方法,自移动机器人根据用户发出的语音信号确定声源方向,并确定自身周围的移动对象。之后,从自身周围的移动对象中确定出位于声源方向的目标对象,根据目标对象确定工作区域,并移动至工作区域并执行任务。采用该种方案,由于自移动机器人从移动对象中确定出目标对象,移动对象具有准确的空间位置。因此,自移动机器人能够根据声源方向从多个移动对象中准确确定出目标对象,并准确到达工作区域,无需借助客户端,过程简单、灵活。而且,该方案适用于所有激光类自移动机器人,成本低、算法简单、需要的算力低。
下面,用几个场景对上述的自移动机器人控制方法进行详细说明。
场景一、声源方向不存在障碍物,自移动机器人利用AI相机确定目标对象。
该种场景中,自移动机器人位于比较空旷区域、周围没有障碍物,用户只需要发出语音信号无需做轻踩地面两下等动作,自移动机器人利用AI相机确定目标对象。
例如,自移动机器人和用户位于同一空间,自移动机器人根据语音信号确定声源方向后,利用AI相机采集声源方向图像,根据图像确定声源方向是否存在行人以外的对象。若声源方向不存在行人以外的对象,则认为声源方向无障碍物,继续利用AI相机捕捉声源方向的图像,利用AI相机捕捉的图像确定目标对象。该过程中,用户无需做出轻踩地面两下等动作。
场景二、声源方向存在可从下面穿过的障碍物,自移动机器人利用DTOF传感器确定目标对象。
该种场景中,自移动机器人周围有茶几、桌子等无需绕行、可从下面穿过的障碍物,用户发出语音信号同时需要做轻踩地面两下等动作。自移动机器人利用DTOF传感器确定目标对象。如用户仅发出语音信号,则自移动机器人提示用户做出轻踩地面两下等动作。
例如,用户坐在沙发上,沙发前放置茶几,自移动机器人位于茶几之前。从自移动机器人的AI相机的角度,茶几遮挡了用户身体的一部分。自移动机器人根据语音信号确定声源方向后,利用AI相机采集声源方向图像,根据图像确定声源方向存在茶几,茶几是一个可从下面直接穿过的障碍物。之后,自移动机器人根据DTOF传感器采集的SLAM图和DTOF散点图等确定目标对象。
当自移动机器人确定当前场景为场景二时,若自移动机器人利用DTOF传感器没有发现移动对象。此时,自移动机器人可提示用户做出轻踩地面两下等动作,以便自移动机器人确定出目标对象。
图4是本申请实施例提供的自移动机器人控制方法的另一个流程图。本实施例中自移动机器人具体为扫地机,本实施例包括:
401、用户走到想要清扫的地方。
402、用户轻踩地面两下,并发出:“来这里扫”的语音信号。
用户发出语音信号的目的是为了使得扫地机确定声源方向。用户轻踩地面时为了使得扫地机识别目标对象后,确定目标对象在空间中的具体位置,该具体位置也称之为初始位置。
403、扫地机导航到人腿轻踩地面附近的区域。
扫地机根据目标对象在空间中的具体位置导航到用户轻踩地面的附近区域。用户轻踩地面的区域即为目标对象在空间中的初始位置。之后,扫地机根据DTOF跟踪算法导航到目标对象的脚下。若用户未发生位移,则根据初始位置确定工作区域。
若目标对象发生位移,则跟随目标对象移动。也就是说,若扫地机移动到目标对象跟前的过程中目标对象一直在移动,或者,若扫地机移动到目标对象跟前后,目标对象走动从而发生位移,则扫地机跟随目标对象到达指定位置,该指定位置即为目标对象停止行走时的位置。之后,扫地机根据目标对象停止移动时的位置确定所述工作区域。
404、开始自动清扫。
场景三、声源方向存在障碍物,且障碍物完全遮挡行人。
该种场景中,声源方向存在比较高的障碍物,且自移动机器人无法从该障碍物下面穿过。例如,障碍物为冰箱。再如,自移动机器人位于一个房间,用户位于另外房间。
自移动机器人根据语音信号确定声源方向后,利用AI相机采集声源方向图像,根据图像确定声源方向是否存在遮挡行人的障碍物。若声源方向存在遮挡行人的障碍物,则确定大致导航路径,按照导航路径移动过程中不断的采集图像,并调整导航路径。
上述实施例中,自移动机器人确定出声源方向后,需要对进一步的从多个移动对象中确定出目标对象。若目标对象发生位移,则需要跟踪目标对象。自移动机器人可通过视觉追踪,利用摄像头捕捉行人画面,再利用图像处理算法从画面中提取出行人并且锁定目标对象从而进行跟踪。然而,摄像头对环境要求比较高,要求环境光的强度必须满足一定条件。若环境光的强度比较低时,比如画面全黑则无法采集到高质量图像。而且,图像处理算法较为复杂,对芯片算力要求比较高,实现动态跟踪比较困难。若为大量自移动机器人配置高质量摄像头,则成本很高。
为此,本申请实施例还可确定出目标对象并追踪目标对象。下面,以3D传感器具体为DTOF传感器为例,对自移动机器人如何确定并追踪目标对象进行详细说明。
图5是确定目标对象的流程图。本实施例包括:
501、获取多幅即时定位与地图构建SLAM图和多幅直接飞行时间DTOF散点图。
其中,所述多幅SLAM图中的SLAM图和所述多幅DTOF散点图中的DTOF散点图一一对应。
示例性的,自移动机器人利用DTOF传感器扫描周围环境,检测周围环境,得到多幅SLAM图和多幅DTOF散点图。例如,自移动机器人同步采集SLAM图和DTOFS散点图,一秒采集5帧SLAM图和5帧DTOF散点图,则5帧SLAM图中的SLAM图和5帧DTOF散点图中的DTOF散点图一一对应。
图6所示为SLAM图。请参照图6,SLAM图中仅标记出静止对象,如墙面等。自移动机器人基于SLAM算法构建环境地图时,能够识别出周围环境中物体的轮廓并进行标注,如墙面、沙发、茶几、床等。图6中仅标识出墙面,如图中粗黑实线所示。
图7所示为DTOF散点图。请参照图7,不同于SLAM图,DTOF散点图中既有表征静态对象的像素点,也有表征移动对象的像素点。图中粗黑实线所示为墙面,实线椭圆分别表示行人和杂散点。
502、对于所述多幅DTOF散点图中的每一幅DTOF散点图,根据对应的SLAM图,从所述DTOF散点图中过滤掉表征静态对象的像素点以得到动态点集。
示例性的,如果仅有DTOF散点图,则无法识别出哪些点表征墙面、哪些点表征沙发、茶几、床等。因此,一种方式中,对于每一对SLAM图和DTOF散点图,由于该俩幅图的采集时间相同、采集角度相同。因此,根据SLAM图,能够从DTOF散点图中识别出哪些点表征墙面、哪些点表征沙发、茶几、床等,即能够识别出DTOF散点图中表征静态对象的像素点。之后,从DTOF散点图中过滤掉表征静态对象的像素点以得到动态点集。该动态点集包括一些杂散点和移动对象对应的点。
另一种方式中,对于每一帧DTOF散点图,根据对应的SLAM图确定出该DTOF散点图中用于表征墙面、沙发等对象的点。之后,对于任意相邻的两帧DTOF图像,将该两帧DTOF散点图上的点都画在同一幅空白图像中。若一个对象为静止对象,则两帧DTOF散点图中表征该静止对象的点位于同一个位置,若一个对象为移动对象,则该两幅DTOF散点图中表征该移动对象的点位于不同位置且比较相似。因此,将相邻两幅DTOF散点图中的像素点画在同一幅空白图像中后,能够确定出动态点集。该动态点集包括一些杂散点和移动对象对应的点。
实际实现过程中,若两帧DTOF散点图中同一个对象映射在空白图像的同一个位置,则将该对象所有点用颜色a表示,该对象为静止对象。其余对象的像素点用户另外一种颜色b表示。显然,只有移动对象和杂散点才会使用颜色b,而静止对象使用颜色a。经过一些简单的过滤后,很容易识别出移动对象和静止对象。
另外,自移动机器人采集SLAM图和DTOF散点图的目的是为了找到目标对象并跟随目标对象,而目标对象通常为行人,因此,为了减少计算量,无需考虑其他移动对象,如滚动的球等。这种情况下,自移动机器人确定自移动机器人周围的移动对象之后,从移动对象中确定出位于所述声源方向的目标对象之前,还根据人类行走时的步态、运动速度等特征,从多个移动对象中确定出可能是行人的目标对象,从而过滤掉一部分杂散点。
503、根据相邻的多幅DTOF散点图的动态点集确定所述自移动机器人周围的移动对象。
示例性的,不同DTOF图中杂散点的位置不同,无规律可寻。即使将相邻两帧DTOF图中的杂散点画到同一幅空白图像中,也总结不出任何规律。而移动对象不同,若将相邻两帧DTOF图中同一个移动对象画到同一幅空白图像中,则该移动对象位于两个不同位置,该俩个位置之间的距离满足一定条件且该两个位置的点集中点的数量接近。
例如,若一个球正在滚动,则SLAM图中不存在用于表征球的像素点。但是,相邻两幅DTOF散点图中均存在代表该球的点集,前一帧DTOF散点图中,代表球的点集位于空白图像中的A位置,后一帧DTOF散点图中,代表球的点集位于空白图像中的B位置,A位置的点集中像素点的数量约等于B位置的点集中像素点的数量,且A位置点集形成的形状与B位置点集形成的点的形状相似。
采用该种方案,实现根据前后帧DTOF散点图和SLAM图确定出自移动机器人周围的移动对象和静止对象的目的。
可选的,上述实施例中,自移动机器人根据相邻的多幅DTOF散点图的动态点集确定所述自移动机器人周围的移动对象的过程中,首先,从第一DTOF散点图的第一动态点集中确定出第一子集。之后,自移动机器人确定所述第二DTOF散点图的第二动态点集中是否存在第二子集,所述第一子集指示的第一位置与所述第二子集指示的第二位置之间的距离大于预设距离,且所述第一子集和所述第二子集中像素点数量的差值小于预设差值,所述第一DTOF散点图和所述第二DTOF散点图是所述多幅DTOF散点图中任意相邻的两幅DTOF散点图,若第二动态点集中存在所述第二子集,则确定所述第一子集和所述第二子集表征同一个对象且所述对象为移动对象。
示例性的,预设距离是能表征一个对象是移动对象时,第一位置和第二位置的最小距离。每帧DTOF散点图的动态点集中可能包含一个或多个移动对象对应的点集以及一些杂散点。自移动机器人从第一DTOF散点图的第一动态点集中确定出第一子集,该第一子集包含比较集中的多个像素点。之后,自移动机器人确定第二DTOF散点图中的第二动态点集中是否存在第二点集。若第二动态点集中存在的第二点集,则说明第一点集和第二点集表征同一个对象且该对象为移动对象。若第二动态点集中不存在第二点集,则说明第一点集中的像素点是一些杂散点。另外,若一些像素点数量比较小,无法表征一个对象,则该些点为杂散点,如一个或数个点。或者,由于目标对象通常为行人,自移动机器人估算目标对象的行走速度等,将不符合目标对象的行走速度等条件的对象过滤掉。
继续以上述滚动的球为例,若球的速度为1米每秒,DTOF传感器的采集速率是5帧每秒,则球在第一DTOF散点图中的位置坐标,与球在第二DTOF散点图中的位置坐标的距离约为20cm。因此,若第一子集对应的位置A和第二子集对应的位置B之间距离20cm,且第一子集和第二子集中像素点的数量接近,则说明第一子集和第二子集表征同一个对象且所述对象为移动对象。
采用该种方案,实现自移动机器人依据动态点集确定出周围的移动对象的目的。
可选的,上述实施例中,自移动机器人采集SLAM图和DTOF散点图的目的是为了找到目标对象并跟随目标对象,而目标对象通常为行人,因此,为了减少计算量,无需考虑其他移动对象,如滚动的球等。这种情况下,自移动机器人确定自移动机器人周围的移动对象之后,从移动对象中确定出位于所述声源方向的目标对象之前,还根据人类行走时的步态、运动速度等特征,从多个移动对象中确定出可能是行人的目标对象,进而从行人中确定出位于声源方向的目标对象。
自移动机器人从行人中确定出位于声源方向的目标对象的过程中,从所述移动对象中确定出脚部发生动作、且位于所述声源方向上的移动对象,以得到所述目标对象。
示例性的,自移动机器人的高度通常有限,以扫地机为例,扫地机的高度通常为10厘米,则扫地机只能采集10厘米高度范围内的DTOF图像。考虑到自移动机器人的DTOF传感器的视野的限制,用户发出语音指令时需要脚步做出动作,如轻踩地面两下、从左右脚并拢切换为左右脚张开一定角度、从左右脚张开一定角度切换为左右脚并拢等,若用户做出招手、鼓掌、摇头等动作,虽然说用户在运动,但是由于不在DTOF传感器的视野内,无法被DTOF传感器采集到,因此,这些动作无法实现本申请方案。
本申请实施例中,自移动机器人上部署一个预先训练好的模型,该模型能够根据DTOF散点图识别用户做出轻踩地面的动作。当相邻两帧DTOF散点图中第一子集和第二子集输入至模型,根据模型确定出第一子集和第二子集表征的移动对象的动作是轻踩地面时,若该移动对象位于声源方向,则确定移动对象为目标对象。
采用该种方案,一个移动对象必须做出轻踩地面的动作、且该移动对象位于声源方向时,才将该移动对象确定为目标对象,实现准确确定出目标对象的目的。
以上是确定自移动机器人周围的移动对象并从中确定出目标对象。下面,对如何跟随目标对象进行详细说明。
可选的,上述实施例中,自移动机器人确定出目标对象,并朝向目标对象行进。之后,若目标对象发生位移,即目标对象走动时,则利用导航技术对目标对象进行跟随,直到目标对象停止移动。之后,根据目标对象停止移动时的位置确定所述工作区域。
利用导航技术跟随过程中,自移动机器人可根据局部规划算法等进行跟随。局部规划算法包括:向量场直方图(Vector Field Histogram,VFH)算法、动态窗口算法(dynamic window approach,DWA)等。从使用的硬件的角度,跟随包括基于DTOF传感器的跟随和基于A I相机的跟随。
自移动机器人基于DTOF传感器的跟随方式中,自移动机器人确定相邻两幅DTOF散点图中是否均出现所述目标对象,若相邻两幅DTOF散点图中均出现所述目标对象,则确定相邻两幅DTOF散点图中目标对象的距离与预设距离的差值。之后,根据所述差值调整速度以跟随所述目标对象移动。
以用户的正常行走速度为1米每秒、自移动机器人采集DTOF散点图的速度为200毫秒/帧为例,则相邻两帧DTOF散点图中目标对象的位置坐标的距离大约为20厘米。因此,跟随过程中,对于任意相邻的两帧DTOF散点图,自移动机器人确定该两帧DTOF散点图中是否均出现目标对象。若两帧DTOF散点图中均出现目标对象,则说明没有跟丢。
或者,自移动机器人在第一帧DTOF散点图(前一帧)中确定出目标对象的位置坐标。之后,按照行进方向,在第二帧DTOF散点图(后一帧)中距离该位置坐标20厘米的位置确定是否存在目标对象,若存在目标对象,则说明没有跟丢,继续跟随用户。
若跟丢,则根据最后一帧出现目标对象的DTOF散点图以及该帧之前的DTOF散点图寻找目标对象。或者,发出“哎呀,我迷路了,请来引导我前进吧”等语音提示。
若没有跟丢,则自移动机器人每次采集到DTOF散点图后,根据该DTOF散点图和前一帧DTOF散点图计算目标对象的距离,并比较该距离和上一个距离。若距离增大,说明目标对象移动速度加快,自移动机器人增大速度并跟随目标对象移动。若距离减小,说明目标对象移动速度放慢,自移动机器人降低速度并跟随目标对象移动。若距离不变,则说明目标对象移动速度不变,自移动机器人保持当前速度跟随目标对象移动。
采用该种方案,实现基于DTOF传感器跟随目标对象移动的目的。
图8是本申请实施例提供的自移动机器人控制方法中基于AI相机的跟随流程图,本实施例包括:
801、用户唤醒或召唤自移动机器人。
用户对自移动机器人说出唤醒词从而唤醒自移动机器人。例如,唤醒词为“小Q小Q”,自移动机器人的语音控制功能处于待唤醒状态时,用户发出“小Q小Q”的语音信号后,自移动机器人的语音控制功能唤醒,之后,用户和自移动机器人进行语音交互。
用户对自移动机器人说出转换关键字从而召唤自移动机器人。例如,召唤关键字为“小Q,来这里扫”。自移动机器人的语音控制功能被唤醒后,用户发出“小Q,来这里扫”的语音信号后,自移动机器人识别出召唤并向用户行进。
另外,召唤关键字还兼具唤醒和召唤功能。例如,自移动机器人的语音控制功能处于待唤醒状态,用户发出“小Q,来这里扫”的语音信号后,自移动机器人的语音控制功能被唤醒,同时,自移动机器人识别出召唤并向用户行进。
自移动机器人被唤醒或识别出召唤后,利用环麦定位旋转一定角度使得自移动机器人基本朝向用户,继续旋转直到AI相机能够捕捉到用户,并利用AI相机捕捉到的人像对用户进行定位,从而使得自移动机器人的AI相机朝向用户。
802、自移动机器人确定目标对象。
自移动机器人利用AI的人形定位精确的面向用户。当AI相机捕捉到多个用户时,发出提示信息使得用户做出特定动作,如挥手、摇头等,以便二次确定目标对象。AI人形定位算法提供目标对象相对于自移动机器人的角度以及目标对象的骨架图。
803、自移动机器人保持跟随状态跟随目标对象移动。跟随过程中执行步骤804和806。
804、自移动机器人判断是否需要绕障,若需要绕障则执行步骤805;若不需要绕障则执行步骤808。
805,自移动机器人绕障,之后执行步骤808。
自移动机器人发现和目标对象之间存在障碍物时,切换为避障模式,利用LDS及线激光数据等确定最近的障碍物,确定障碍物的轮廓,进而选择更容易绕行的方向绕障。之后,执行步骤802。
806、自移动机器人判断是否需要越障,若需要越障,则执行步骤807;若不需要越障,则执行步骤808。
807、自移动机器人越障,之后执行步骤808。
自移动机器人利用线激光传感器等能够得到地面信息,进而识别出自移动机器人前方是否有台阶或悬崖。若有台阶和悬崖则需要越障。
为了保证自移动机器人的线激光传感器能够在不同材质地面上得到同样的有效距离,线激光传感器采用动态曝光方案,即在反射率较低的材质上提高曝光值,以得到更多有效数据;在反射率较高的材质上降低曝光值,以得到精度更高的数据。自移动机器人根据线激光传感器提高的数据识别台阶的高度、悬崖的高度等,根据台阶的高度、悬崖的高度等确定越障策略。
808、自移动机器人判断是否结束跟随,若结束跟随则结束;若未结束跟随则执行步骤809。
809、自移动机器人判断是否跟丢,若未跟丢目标对象,则执行步骤802;若跟丢目标对象,则执行步骤810。
810、寻找目标对象,若未找到目标对象则执行步骤801。
示例性的,由于自移动机器人移动能力的限制,存在一定概率的跟丢问题。若出现跟丢,则自移动机器人根据所述目标对象最后一次出现的位置坐标确定寻找范围,在所述寻找范围内寻找所述目标对象。其中,寻找范围例如为以最后一次出现的位置坐标为圆心,以预设半径为半径圈定的圆形范围,圆形范围例如为x平方米,
若寻找到目标对象,则继续跟随目标对象,若没有寻找到目标对象,则进入等待召唤状态,等待用户重新召唤。另外,若自移动机器人无法找到用户,还可以发出提示信息:“我跟丢了,来引导我吧”等,以引导目标对象来到自移动机器人跟前。
采用该种方案,利用AI相机跟随,响应灵敏、成本低,能够有效防止跟丢、跟错,同时,兼具避障和越障能力。而且,自移动机器人跟丢时执行跟丢逻辑以便自动寻找目标对象或提示用户以使得用户重新引导自移动机器人,过程简单。
图9是自移动机器人保持跟随状态的流程图。本实施例包括:
901、自移动机器人利用AI相机捕捉目标对象的骨架图。
902、自移动机器人确定骨架图是否完整,若骨架图完整,则执行步骤903;若骨架图不完整,则执行步骤905。
示例性的,自移动机器人根据骨架是否的完整性判断自移动机器人与目标对象之间是否存在障碍物。当AI相机捕捉到完整的骨架图时,表明自移动机器人和目标对象之间没有任何障碍物。此时,自移动机器人根据激光传感器数据,确定AI相机所在方向上,目标对象距离自移动机器人最近的点为目标对象的位置坐标,进而向目标对象移动并与目标对象保持固定距离。其中,激光传感器例如为DTOF传感器、激光雷达(Laser DirectStructuring,LDS)等。
当AI相机捕捉的目标对象的骨架图不完整时,表明自移动机器人和目标对象之间存在障碍物。激光传感器数据大概率会被障碍物遮挡,使得自移动机器人无法获取到激光传感器数据,进而无法跟随。此时,激光传感器需要避障或越障来尝试绕开障碍物,直到AI相机能够捕捉到目标对象完整的骨架图。之后,根据目标对象移动。
903、跟随目标对象移动。
904、判断是否结束跟随,若结束跟随则结束;若未结束跟随则执行步骤901。
示例性的,若目标对象一直移动,则说明未结束跟随;若目标对象停止移动,则数码结束跟随。
905、确定障碍物的轮廓。
906、根据轮廓避障,之后执行步骤901。
上述实施例中,一种方式中,跟随过程中自移动机器人仅跟随目标对象移动而不工作。例如,扫地机跟随过程中不执行扫地、拖地功能,直到目标对象停止移动时,根据目标对象停止移动时的位置确定出工作区域并在工作区域内工作。
另一种方式中,自移动机器人跟随过程中,保证自移动机器人和目标对象保持一定距离的同事,自移动机器人与目标对象能够进行互动。以边跟随边播放音乐为例,自移动机器人执行音乐播放功能,此时,目标对象召唤自移动机器人,自移动机器人跟随目标对象。跟随过程中,自移动机器人保持音乐播放。若目标对象停止运动,自移动机器人与目标对象保持一定距离范围,并始终面向目标对象,以得到最佳音乐播放效果。
图10是自移动机器人的结构示意图。请参照图10,自移动机器人例如为空气净化机器人,其上设置有DTOF传感器、LDS传感器、环麦、AI相机、线激光传感器等。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图11为本申请实施例提供的一种自移动机器人控制装置的结构示意图。该自移动机器人控制装置1100包括:第一确定模块1101、第二确定模块1102、第三确定模块1103、处理模块1104和执行模块1105。
第一确定模块1101,用于根据用户发出的语音信号确定声源方向;
第二确定模块1102,用于确定自移动机器人周围的移动对象;
第三确定模块1103,用于从所述移动对象中确定出位于所述声源方向的目标对象;
处理模块1104,用于根据所述目标对象确定工作区域;
执行模块1105,用于移动至所述工作区域并在所述工作区域内执行任务。
一种可行的实现方式中,所述第二确定模块1102,用于获取多幅即时定位与地图构建SLAM图和多幅直接飞行时间DTOF散点图,所述多幅SLAM图中的SLAM图和所述多幅DTOF散点图中的DTOF散点图一一对应;对于所述多幅DTOF散点图中的每一幅DTOF散点图,根据对应的SLAM图,从所述DTOF散点图中过滤掉表征静态对象的像素点以得到动态点集;根据相邻的多幅DTOF散点图的动态点集确定所述自移动机器人周围的移动对象。
一种可行的实现方式中,所述第二确定模块1102根据相邻的多幅DTOF散点图的动态点集确定所述自移动机器人周围的移动对象时,用于从第一DTOF散点图的第一动态点集中确定出第一子集;确定所述第二DTOF散点图的第二动态点集中是否存在第二子集,所述第一子集指示的第一位置与所述第二子集指示的第二位置之间的距离大于预设距离,且所述第一子集和所述第二子集中像素点数量的差值小于预设差值,所述第一DTOF散点图和所述第二DTOF散点图是所述多幅DTOF散点图中任意相邻的两幅DTOF散点图;若所述第二动态点集中存在所述第二子集,则确定所述第一子集和所述第二子集表征同一个对象且所述对象为移动对象。
一种可行的实现方式中,所述第三确定模块1103,用于从所述移动对象中确定出脚部发生动作、且位于所述声源方向上的移动对象,以得到所述目标对象。
一种可行的实现方式中,所述处理模块1104,用于移动至距所述目标对象预设距离的位置,若所述目标对象未发生位移,则根据所述目标对象的初始位置确定所述工作区域。
一种可行的实现方式中,所述处理模块1104,用于移动至距所述目标对象预设距离的位置后,若所述目标对象发生位移,则控制所述自移动机器人跟随所述目标对象移动;当所述目标对象停止移动时,根据所述目标对象停止移动时的位置确定所述工作区域。
一种可行的实现方式中,所述处理模块1104控制所述自移动机器人跟随所述目标对象移动时,用于确定相邻两幅DTOF散点图中是否均出现所述目标对象;
若相邻两幅DTOF散点图中均出现所述目标对象,则确定相邻两幅DTOF散点图中目标对象的距离;
根据所述距离调整速度以跟随所述目标对象移动。
一种可行的实现方式中,所述处理模块1104控制所述自移动机器人跟随所述目标对象移动时,用于利用人工智能AI相机捕捉目标对象的骨架图;当所述骨架图完整时,保持跟随状态以跟随所述目标对象移动;当所述骨架图不完整时,对所述自移动设备和所述目标对象之间的障碍物避障或越障直至所述AI相机捕捉到完整的骨架图像后,保持跟随状态以跟随所述目标对象移动。
一种可行的实现方式中,所述处理模块1104在所述第一确定模块1101根据用户发出的语音信号确定声源方向之前,还用于唤醒所述自移动机器人;确定所述语音信号对应的控制指令用于控制所述自移动机器人即时根据所述目标对象确定工作区域。
一种可行的实现方式中,所述处理模块1104,还用于确定是否跟丢所述目标对象;若跟丢所述目标对象,则根据所述目标对象最后一次出现的位置坐标确定寻找范围;在所述寻找范围内寻找所述目标对象;若未寻找到所述目标对象,则进入等待召唤状态。
本申请实施例提供的自移动机器人控制装置,可以执行上述实施例中自移动机器人的动作,其实现原理和技术效果类似,在此不再赘述。
图12为本申请实施例提供的一种自移动机器人的结构示意图。如图12所示,该自移动机器人1200包括:
处理器1201和存储器1202;
所述存储器1202存储计算机指令;
所述处理器1201执行所述存储器1202存储的计算机指令,使得所述处理器1201执行如上自移动机器人实施的方法。
处理器1201的具体实现过程可参见上述方法实施例,其实现原理和技术效果类似,本实施例此处不再赘述。
可选地,该自移动机器人1200还包括通信部件1203。其中,处理器1201、存储器1202以及通信部件1203可以通过总线1204连接。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机指令,所述计算机指令被处理器执行时用于实现如上自移动机器人实施的方法。
本申请实施例还提供一种计算机程序产品,该计算机程序产品包含计算机程序,计算机程序被处理器执行时实现如上自移动机器人实施的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求书指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求书来限制。

Claims (12)

1.一种自移动机器人控制方法,其特征在于,包括:
识别到召唤语音命令后,确定所述召唤语音命令对应的声源方向;
识别所述声源方向上的目标对象;
确定所述目标对象在空间中的初始位置;
根据所述初始位置规划路径并执行以下至少一种情况:
若所述目标对象在发出所述召唤语音命令后未发生位移,则按照所述路径向所述目标对象的所述初始位置移动,移动至所述初始位置对应的工作区域后在所述工作区域内执行任务;
若所述目标对象在发出所述召唤语音命令后发生位移,则按照所述路径移动至所述目标对象附近后跟随所述目标对象移动,直到所述目标对象停止移动,根据所述目标对象停止移动时的位置确定工作区域并执行任务;
所述识别所述声源方向上的目标对象,包括:
确定所述自移动机器人周围的移动对象;
从所述移动对象中确定出位于所述声源方向上的所述目标对象;
所述确定所述自移动机器人周围的移动对象,包括:
获取多幅即时定位与地图构建SLAM图和多幅直接飞行时间DTOF散点图,所述多幅SLAM图中的SLAM图和所述多幅DTOF散点图中的DTOF散点图一一对应;
对于所述多幅DTOF散点图中的每一幅DTOF散点图,根据对应的SLAM图,从所述DTOF散点图中过滤掉表征静态对象的像素点以得到动态点集;
根据相邻的多幅DTOF散点图的动态点集确定所述自移动机器人周围的移动对象。
2.根据权利要求1所述的方法,其特征在于,所述根据相邻的多幅DTOF散点图的动态点集确定所述自移动机器人周围的移动对象,包括:
从第一DTOF散点图的第一动态点集中确定出第一子集;
确定第二DTOF散点图的第二动态点集中是否存在第二子集,所述第一子集指示的第一位置与所述第二子集指示的第二位置之间的距离大于预设距离,且所述第一子集和所述第二子集中像素点数量的差值小于预设差值,所述第一DTOF散点图和所述第二DTOF散点图是所述多幅DTOF散点图中任意相邻的两幅DTOF散点图;
若所述第二动态点集中存在所述第二子集,则确定所述第一子集和所述第二子集表征同一个对象且所述对象为移动对象。
3.根据权利要求1或2所述的方法,其特征在于,所述从所述移动对象中确定出位于所述声源方向的目标对象,包括:
从所述移动对象中确定出脚部发生动作、且位于所述声源方向上的移动对象,以得到所述目标对象。
4.根据权利要求1或2所述的方法,其特征在于,所述若所述目标对象在发出所述召唤语音命令后未发生位移,则按照所述路径向所述目标对象的所述初始位置移动,移动至所述初始位置对应的工作区域后在所述工作区域内执行任务,包括:
若所述目标对象在发出所述召唤语音命令后未发生位移,按照所述路径移动至距所述初始位置预设距离的位置,根据所述目标对象的初始位置确定所述工作区域后在所述工作区域内执行任务。
5.根据权利要求1或2所述的方法,其特征在于,所述若所述目标对象在发出所述召唤语音命令后发生位移,则按照所述路径移动至所述目标对象附近后跟随所述目标对象移动,直到所述目标对象停止移动,根据所述目标对象停止移动时的位置确定工作区域并执行任务,包括:
移动至距所述初始位置预设距离的位置后,若所述目标对象发生位移,则控制所述自移动机器人跟随所述目标对象移动,直到所述目标对象停止移动,根据所述目标对象停止移动时的位置确定工作区域并执行任务。
6.根据权利要求5所述的方法,其特征在于,所述控制所述自移动机器人跟随所述目标对象移动,包括:
确定相邻两幅DTOF散点图中是否均出现所述目标对象;
若相邻两幅DTOF散点图中均出现所述目标对象,则确定相邻两幅DTOF散点图中目标对象的距离;
根据所述距离调整速度以跟随所述目标对象移动。
7.根据权利要求5所述的方法,其特征在于,所述控制所述自移动机器人跟随所述目标对象移动,包括:
利用人工智能AI相机捕捉目标对象的骨架图;
当所述骨架图完整时,保持跟随状态以跟随所述目标对象移动;
当所述骨架图不完整时,对所述自移动机器人和所述目标对象之间的障碍物避障或越障直至所述AI相机捕捉到完整的骨架图像后,保持跟随状态以跟随所述目标对象移动。
8.根据权利要求1或2所述的方法,其特征在于,所述识别到召唤语音命令后,确定所述召唤语音命令对应的声源方向之前,还包括:
唤醒所述自移动机器人;
确定所述语音命令对应的控制指令用于控制所述自移动机器人即时根据所述目标对象确定工作区域。
9.根据权利要求1或2所述的方法,其特征在于,还包括:
确定是否跟丢所述目标对象;
若跟丢所述目标对象,则根据所述目标对象最后一次出现的位置坐标确定寻找范围;
在所述寻找范围内寻找所述目标对象;
若未寻找到所述目标对象,则进入等待召唤状态。
10.一种自移动机器人控制装置,其特征在于,包括:
第一确定模块,用于识别到召唤语音命令后,确定所述召唤语音命令对应的声源方向;
第二确定模块,用于识别所述声源方向上的目标对象,确定所述目标对象在空间中的初始位置,根据所述初始位置规划路径;
执行模块,用于若所述目标对象未发生位移,则按照所述路径向所述目标对象的所述初始位置移动,移动至所述初始位置对应的工作区域后在所述工作区域内执行任务;若所述目标对象发生位移,则按照所述路径移动至所述目标对象附近后跟随所述目标对象移动,直到所述目标对象停止移动,根据所述目标对象停止移动时的位置确定工作区域并执行任务;
所述第二确定模识别所述声源方向上的目标对象时,具体用于确定所述自移动机器人周围的移动对象;从所述移动对象中确定出位于所述声源方向上的所述目标对象;
所述第二确定模块确定所述自移动机器人周围的移动对象时,具体用于获取多幅即时定位与地图构建SLAM图和多幅直接飞行时间DTOF散点图,所述多幅SLAM图中的SLAM图和所述多幅DTOF散点图中的DTOF散点图一一对应;对于所述多幅DTOF散点图中的每一幅DTOF散点图,根据对应的SLAM图,从所述DTOF散点图中过滤掉表征静态对象的像素点以得到动态点集;根据相邻的多幅DTOF散点图的动态点集确定所述自移动机器人周围的移动对象。
11.一种自移动机器人,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时使得所述自移动机器人实现如权利要求1至9任一所述的方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至9任一所述的方法。
CN202110959732.3A 2021-08-17 2021-08-20 自移动机器人控制方法、装置、设备及可读存储介质 Active CN113787517B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202311117405.9A CN117148836A (zh) 2021-08-20 2021-08-20 自移动机器人控制方法、装置、设备及可读存储介质
CN202110959732.3A CN113787517B (zh) 2021-08-20 2021-08-20 自移动机器人控制方法、装置、设备及可读存储介质
PCT/CN2022/109522 WO2023020269A1 (zh) 2021-08-17 2022-08-01 自移动机器人控制方法、装置、设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110959732.3A CN113787517B (zh) 2021-08-20 2021-08-20 自移动机器人控制方法、装置、设备及可读存储介质

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202311117405.9A Division CN117148836A (zh) 2021-08-20 2021-08-20 自移动机器人控制方法、装置、设备及可读存储介质

Publications (2)

Publication Number Publication Date
CN113787517A CN113787517A (zh) 2021-12-14
CN113787517B true CN113787517B (zh) 2023-09-22

Family

ID=79181906

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202311117405.9A Pending CN117148836A (zh) 2021-08-20 2021-08-20 自移动机器人控制方法、装置、设备及可读存储介质
CN202110959732.3A Active CN113787517B (zh) 2021-08-17 2021-08-20 自移动机器人控制方法、装置、设备及可读存储介质

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202311117405.9A Pending CN117148836A (zh) 2021-08-20 2021-08-20 自移动机器人控制方法、装置、设备及可读存储介质

Country Status (1)

Country Link
CN (2) CN117148836A (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023020269A1 (zh) * 2021-08-17 2023-02-23 科沃斯机器人股份有限公司 自移动机器人控制方法、装置、设备及可读存储介质
CN114642377B (zh) * 2022-02-16 2024-05-10 美智纵横科技有限责任公司 交互装置及具有其的自移动清洁设备
CN115098802A (zh) * 2022-07-06 2022-09-23 珠海格力电器股份有限公司 自移动设备的部署方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106292657A (zh) * 2016-07-22 2017-01-04 北京地平线机器人技术研发有限公司 可移动机器人及其巡逻路径设置方法
CN110575099A (zh) * 2018-06-07 2019-12-17 科沃斯机器人股份有限公司 定点清扫方法、扫地机器人及存储介质
CN111251271A (zh) * 2020-03-17 2020-06-09 青岛大学 一种旋转激光雷达及室内地图构建和定位的slam机器人
CN111360845A (zh) * 2020-03-30 2020-07-03 皖西学院 一种家用机器人

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019103349B3 (de) * 2019-02-11 2020-06-18 Beckhoff Automation Gmbh Industrierobotersystem und Verfahren zur Steuerung eines Industrieroboters
KR20200144362A (ko) * 2019-06-18 2020-12-29 엘지전자 주식회사 커뮤니케이션 로봇 및 그의 구동 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106292657A (zh) * 2016-07-22 2017-01-04 北京地平线机器人技术研发有限公司 可移动机器人及其巡逻路径设置方法
CN110575099A (zh) * 2018-06-07 2019-12-17 科沃斯机器人股份有限公司 定点清扫方法、扫地机器人及存储介质
CN111251271A (zh) * 2020-03-17 2020-06-09 青岛大学 一种旋转激光雷达及室内地图构建和定位的slam机器人
CN111360845A (zh) * 2020-03-30 2020-07-03 皖西学院 一种家用机器人

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
阿朗佐·凯利.移动机器人学 数学基础、模型构建及实现方法.北京:机械工业出版社,2019,第640-642页. *

Also Published As

Publication number Publication date
CN117148836A (zh) 2023-12-01
CN113787517A (zh) 2021-12-14

Similar Documents

Publication Publication Date Title
CN113787517B (zh) 自移动机器人控制方法、装置、设备及可读存储介质
US11654574B2 (en) Cleaning robot
CN110338708B (zh) 一种扫地机器人的清扫控制方法及设备
US11737635B2 (en) Moving robot and control method thereof
US11412906B2 (en) Cleaning robot traveling using region-based human activity data and method of driving cleaning robot
CN114603559A (zh) 移动机器人的控制方法、装置、移动机器人及存储介质
US11076734B2 (en) Robot cleaner and control method thereof using artificial intelligence
JP2022173244A (ja) 状況認識のためのモバイル清掃ロボット人工知能
US10638028B2 (en) Apparatus, method, recording medium, and system for capturing coordinated images of a target
JP7351383B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2018165759A (ja) 音声検出装置、音声検出方法、及びプログラム
KR102306394B1 (ko) 인공지능 로봇 청소기
JP7225763B2 (ja) 自律移動装置、自律移動方法及びプログラム
CN110575653A (zh) 一种智能捡网球机器人
KR20190105214A (ko) 인공 지능을 통해 구속 상황을 회피하는 로봇 청소기 및 그의 동작 방법
WO2023020269A1 (zh) 自移动机器人控制方法、装置、设备及可读存储介质
CN206726243U (zh) 室内移动视频跟踪定位辅助拍摄装置
US11986959B2 (en) Information processing device, action decision method and program
Okuno et al. Sound and visual tracking for humanoid robot
CN113793605A (zh) 自主移动设备语音控制方法、装置、设备及可读存储介质
KR102499574B1 (ko) 이동 로봇 장치
JP7354528B2 (ja) 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム
US11480968B1 (en) System for dynamic positioning of an autonomous mobile device with respect to a user
CN214055284U (zh) 一种自移动机器人
US11925305B2 (en) Autonomous travel-type cleaner and control method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant