CN112882461A - 机器人、控制方法以及存储介质 - Google Patents

机器人、控制方法以及存储介质 Download PDF

Info

Publication number
CN112882461A
CN112882461A CN202011145337.3A CN202011145337A CN112882461A CN 112882461 A CN112882461 A CN 112882461A CN 202011145337 A CN202011145337 A CN 202011145337A CN 112882461 A CN112882461 A CN 112882461A
Authority
CN
China
Prior art keywords
robot
learning model
controller
output
information indicating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011145337.3A
Other languages
English (en)
Inventor
铃木薪雄
杨艳艳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sintokogio Ltd
Original Assignee
Sintokogio Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sintokogio Ltd filed Critical Sintokogio Ltd
Publication of CN112882461A publication Critical patent/CN112882461A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

机器人(10)包括传感器(12)和控制器(11)。控制器(11)包括第1学习模型(M1)和行进方向决定部(112)。第1学习模型(M1)通过将传感器(12)输出的测距数据作为输入并且输出对象物存在的方向来进行机器学习。行进方向决定部(112)参照第1学习模型(M1)的输出,决定机器人(10)的行进方向,以使其朝向对象物。

Description

机器人、控制方法以及存储介质
技术领域
本发明涉及对自走式的机器人进行控制的方法。
背景技术
对自走式的机器人进行控制的技术是已知的。例如,在专利文献1中记载了如下技术:根据从机器人发送的动态图像,通过机器学习,测量与动态图像中映出的被摄体接触的危险程度,并且在测量出的危险程度为规定的阈值以上的情况下,指示机器人停止。
【现有技术文献】
【专利文献1】日本公开特许公报“专利第6393433号说明书(2018年8月31日登记)”
发明内容
发明所要解决的技术问题
这里,在使机器人追随规定的对象物(例如特定的人)的用途中,需要对存在于机器人的周围的物体中的机器人应该朝向的规定的对象物进行检测。在这样的用途中,当采用专利文献1记载的技术时,由于动态图像中不包含到被摄体的距离信息,因此通过使用动态图像的机器学习来检测对象物时的检测精度存在改善的余地。因此,机器人有可能向非意图的方向行进。
本发明的一个方面的目的在于,提供一种更高精度地决定朝向对象物行进的机器人的行进方向的技术。
解决技术问题的技术方案
为了解决上述课题,根据本发明的一个方面的机器人为自走式的机器人,其具有:传感器,其在每个方向上对从所述机器人到周围存在的物体之间的距离进行测量,以及控制器,其参照从所述传感器输出的测距数据对所述机器人进行控制。所述控制器使用第1学习模型,该第1学习模型通过将所述测距数据作为输入并且输出表示所述物体中规定的对象物可以存在的一个或多个方向的信息来进行机器学习。另外,所述控制器执行如下处理:参照所述第1学习模型的输出信息,决定所述机器人的行进方向,以使其朝向所述规定的对象物。
为了解决上述课题,根据本发明的一个方面的控制方法为自走式的机器人的控制方法,其包括如下步骤:在每个方向上对从所述机器人到周围存在的物体之间的距离进行测量;以及参照在所述测量的步骤中输出的测距数据对所述机器人进行控制。在所述控制的步骤中,使用第1学习模型,该第1学习模型通过将所述测距数据作为输入并且输出表示所述物体中规定的对象物能够存在的一个或多个方向的信息来进行机器学习。另外,在所述控制的步骤中,包括如下处理:参照所述第1学习模型的输出信息,决定所述机器人的行进方向,以使其朝向所述规定的对象物。
为了解决上述课题,根据本发明的一个方面的存储介质为存储对上述的机器人进行控制的程序的存储介质,该存储介质使所述控制器执行所述各个处理。
发明效果
根据本发明的一个方面,能够提供更高精度地决定朝向对象物行进的机器人的行进方向的技术。
附图说明
图1是示出根据本发明的实施例1的机器人的主要结构的框图。
图2是示出根据本发明的实施例1的机器人的硬件结构的一例的图。
图3是说明本发明的实施例1的第1学习模型的输入输出的图。
图4是示出在本发明的实施例1中对机器人进行控制的控制方法的流程图。
图5是示出根据本发明的实施例2的机器人的主要结构的框图。
图6是示出根据本发明的实施例2的机器人的硬件结构的一例的图。
图7是说明本发明的实施例2的第2学习模型的输入输出的图。
图8是示出在本发明的实施例2中对机器人进行控制的控制方法的流程图。
图9是示出根据本发明的实施例3的机器人的主要结构的框图。
图10是说明本发明的实施例3的第3学习模型的输入输出的图。
图11是示出本发明的实施例3的障碍物匹配信息的一例的是概略俯视图。
图12是示出本发明的实施例3的障碍物栅格地图的一例的图。
图13是示出本发明的实施例3的放大障碍物栅格地图的一例的图。
图14是示出在本发明的实施例3中对机器人进行控制的控制方法的流程图。
具体实施例
参照附图,对根据本发明的各个实施例的机器人进行说明。根据各个实施例的机器人是代替职员实施设施内的巡视的自走式的机器人。作为配备机器人的设施的一例,可以举出医疗设施、护理设施、幼儿园等,但不限于此。机器人朝向存在于机器人的周围的物体中规定的对象物行进。例如,机器人在设施内巡视的同时将满足特定的条件的物体确定为规定的对象物,并且追随该规定的对象物行进。特定的条件例如可以是在机器人没有追随任何对象物的状态下最初识别出的移动体。作为具体例子,机器人会发现并追随在设施内徘徊的人。另外,特定的条件也可以是通过输入从而指定的移动体。作为具体例子,机器人会追随搭载有散步的人的特定的轮椅。
在本实施例中,存在于机器人的周围的物体是人、轮椅、台车、墙壁、柱等。另外,在本实施例中,机器人应朝向的规定的对象物是移动体。移动体是指可以移动的物体,作为一例,可以是人、轮椅、台车等。在下文中,将机器人应朝向的规定的对象物也记载为“追随对象物”。
[实施例1]
以下,参照图1至图4,对根据本发明的实施例1的机器人10进行说明。
<机器人10的主要结构>
图1是示出机器人10的主要结构的框图。如图1所示,机器人10包括控制器11、测域传感器12以及行进装置13。
作为功能性结构,控制器11包括测距数据取得部111、行进方向决定部112、行进控制部113、以及第1学习模型M1。关于各功能块的详细结构将在后文叙述。
图2是示出机器人10的硬件结构的一例的框图。如图2所示,控制器11是由包括处理器101、存储器102以及通信接口103的计算机构成的。另外,通信接口103是本发明的输入接口的一例。另外,控制器11经由交换式集线器SW分别与测域传感器12和行进装置13可通信地连接。
处理器101、存储器102以及通信接口103经由总线彼此连接。作为处理器101,例如使用微处理器、数字信号处理器、微控制器、或者它们的组合。作为存储器102,例如使用半导体RAM(random access memory:随机存取存储器)、HDD(Hard Disk Drive:硬盘驱动器)、SSD(Solid State Drive:固态驱动器)、或者它们的组合。
在存储器102中存储有用于使处理器101执行后述的控制器11的控制方法S1的程序。处理器101通过读取并执行存储在存储器102中的程序来执行控制方法S1。另外,在存储器102中存储有为了执行控制方法S1而由处理器101参照的各种数据。
通信接口103是用于与其他装置进行通信的接口。例如,通信接口103是进行有线LAN(Local Area Network:局域网)通信的接口。在这种情况下,通信接口103与交换式集线器SW连接,并且经由交换式集线器SW与测域传感器12和行进装置13进行通信。另外,通信接口103不限于有线LAN通信,也可以是进行其他通信的接口。例如,通信接口103也可以是进行无线LAN通信的接口。在这种情况下,通信接口103经由接入点(未图示)与测域传感器12和行进装置13进行通信。另外,通信接口103也可以是由USB(Universal SerialBus:通用串行总线)接口、RS-232C、RS-422、RS-485等串行通信接口、红外线、Bluetooth(注册商标)等的近距离通信接口、或者它们的组合构成的。
[测域传感器12的结构]
测域传感器12是本发明的传感器的一例。测域传感器12在每个方向上对从机器人10到周围存在的物体之间的距离进行测量。另外,测域传感器12周期性地执行在每个方向上测量到周围存在的物体的距离的测量处理。执行测量处理的周期是由控制器11控制的。测域传感器12在周期性地执行测量处理中,输出表示测量出的各方向上的物体的距离的测距数据。
例如,测域传感器12是由二维激光扫描仪构成的。在这种情况下,测域传感器12被设置在距机器人10的设置表面规定高度的位置处,并且在该高度的水平面上测量到包括在扫描范围内的各方向上存在的物体的距离。扫描范围是指相对于机器人10的行进方向左右分别到规定角度为止的范围。具体而言,测域传感器12在扫描范围内在以规定的分辨率改变方向的同时照射激光束。另外,测域传感器12接受在照射激光束的各方向上存在的物体的表面上反射的反射光并且计算到反射点的距离,并输出表示各方向上的反射点的位置的测距数据。在扫描范围内照射激光束并输出测距数据的测量处理是周期性地执行的。另外,测域传感器12不限于上述结构,只要是能够在每个方向上测量到存在于机器人10的周围的物体的距离的结构,也可以采用其他公知的结构。
另外,作为一例,测域传感器12被设置在距地面约40厘米的高度位置处。另外,作为一例,测域传感器12的扫描范围为±115度,可测量的距离为20毫米以上10000毫米以下,分辨率为0.25度。但是,设置测域传感器12的高度、扫描范围、可测量的距离以及分辨率不限于这些值。
<行进装置13的结构>
参照图2,对行进装置13的结构进行说明。行进装置13是使配置在设施的地面上的机器人10在任意方向上行进的装置。作为一例,如图2所示,行进装置13包括:控制本装置的各部的PLC(programmable logic controller:可编程逻辑控制器)131、多个车轮132(132a和132b)、驱动各车轮132的电动机133(133a和133b)、使各电动机133旋转的驱动电路134(134a和134b)、以及检测各电动机133的转速的编码器135(135a和135a)。各车轮132以可变更行进方向的方式安装在机器人10的下表面。机器人10被配置成各车轮132与配置面(例如地面)接触。PLC131根据来自控制器11的控制信号,控制各驱动电路134,从而使各车轮132以期望的旋转速度旋转。各驱动电路134通过向各电动机133提供驱动信号并使其旋转,从而使各车轮132以期望的旋转速度旋转。在配置于机器人10的下部的左右的车轮132a和132b以不同的旋转速度旋转的情况下,机器人10在变更行进方向的同时行进。另外,行进装置13不限于上述结构,只要是能够使机器人10在任意方向上行进的结构,也能够采用公知的结构。另外,行进装置13也可以包括发挥如上所述那样的作用的其他的控制器来代替PLC131。
[控制器11的各功能块的详细结构]
(测距数据取得部111的结构)
如图1所示,测距数据取得部111从测域传感器12取得测距数据。具体而言,测距数据取得部111每隔预定的周期对测域传感器12指示测量处理,由此取得从测域传感器12输出的测距数据。测距数据取得部111将取得的测距数据输入到第1学习模型M1。作为一例,测距数据的取得周期为50毫秒。因此,向第1学习模型M1输入测距数据的周期也是50毫秒。但是,该周期并不限于此。
(第1学习模型M1的结构)
第1学习模型M1是通过将从测域传感器12输出的测距数据作为输入并且输出表示在机器人10的周围存在的物体中追随对象物可以存在的一个或多个方向的信息来进行机械学习的程序。
图3是说明第1学习模型M1的输入输出的图。在第1学习模型M1中输入了两个周期以上的测距数据。另外,虽然图3中示出了3个周期的测距数据,但其并不限定被输入到第1学习模型M1的测距数据的周期的数量。从第1学习模型M1输出移动体存在的一个或多个方向,作为追随对象物可以存在的一个或多个方向。作为具体例子,从第1学习模型M1输出作为移动体的“人”存在的一个或多个方向,作为追随对象物的“特定的人”可以存在的方向。
具体而言,例如,一个周期的测距数据表示为D(f)=(d_f1、d_f2、……、d_fn)。n是2以上的整数,并且是以规定的分辨率在扫描范围内进行测量而得到的距离信息的数量。d_fi(i=1、2、……、n)表示到在周期f内测量的方向ri(i=1、2、……、n)上存在的物体的距离。在第1学习模型M1中,输入最近测量的m个周期的测距数据D(f1)、D(f2)、……、D(fm)。m是2以上的整数。来自第1学习模型M1的输出信息表示为(c1、c2、……、cn)。
例如,输出信息ci(i=1、2、……、n)表示物体的种类(例如,种类“人”、“人以外的物体”以及“无物体”中的任意一种)。在这种情况下,在与表示追随对象物的种类(这里是“人”)的输出信息ci对应的方向ri的任意一个方向上存在追随对象物。换言之,与表示追随对象物的种类的输出信息ci对应的方向ri是追随对象物可以存在的方向。
另外,第1学习模型M1使用教师数据进行机器学习。例如,控制器11预先执行生成教师数据并使其机器学习第1学习模型M1的处理。例如,在机器人10的周围存在多个移动体(人、轮椅、台车等)的状况下,控制器11取得表示多个移动体中与追随对象物相同种类的“人”分别存在的方向的信息。人分别存在的方向是通过操作者的输入取得的。另外,控制器11取得在该状况下使用测域传感器12测量的多个周期的测距数据。另外,控制器11将取得的多个周期的测距数据和与人分别存在的方向相关联的数据作为教师数据,使第1学习模型M1进行机器学习。另外,第1学习模型M1不限于是通过该机器人10的控制器11进行机器学习的模型,也可以是通过其他机器人10的控制器11或机器人10的外部的装置进行机器学习的模型。
另外,在第1学习模型M1的机器学习中,可以应用公知的机器学习算法。作为公知的机器学习算法,例如有CNN(Convolutional Neural Networks:卷积神经网络)、RNN(Recurrent Neural Network:递归神经网络)、GAN(GenerativeAdversarial Network:生成对抗网络)等的深度学习软件(算法)。另外,使第1学习模型M1进行学习的算法并不限于深度学习,也可以是支持向量机等这样的其他的机器学习算法。另外,第1学习模型M1不限于有教师学习,也可以是通过无教师学习、半有教师学习等进行机器学习。
(行进方向决定部112的结构)
图1所示的行进方向决定部112参照第1学习模型M1的输出信息,决定机器人10的行进方向,以使其朝向追随对象物。
具体而言,行进方向决定部112除了参照第1学习模型M1的输出信息之外,还参照最近得到的测距数据,将输出信息表示的一个或多个方向中到物体的距离最近的方向决定为行进方向。但是,决定行进方向的处理不限于上述的处理。例如,行进方向决定部112也可以将输出信息表示的一个或多个方向中到物体的距离最近的方向和与该方向接近的方向视为作为追随对象物的特定的人的左脚的方向和右脚的方向。在这种情况下,行进方向决定部112也可以将这两个方向之间的方向决定为行进方向。另外,也可以是,行进方向决定部112将输出信息表示的一个或多个方向中在一个控制周期前决定的行进方向和与该方向接近的方向中的、到物体的距离最近的方向决定为行进方向。
(行进控制部113的结构)
行进控制部113控制行进装置13,以使机器人10沿所决定的行进方向行进。具体而言,行进控制部113取得表示机器人10的当前朝向的信息。行进控制部113在当前朝向与所决定的行进方向相同的情况下,使机器人10保持当前朝向行进。另外,在当前朝向与所决定的行进方向不同的情况下,行进控制部113在控制行进装置13使得机器人10朝向所决定的行进方向的同时使机器人10行进。具体而言,行进控制部113基于行进装置13中包含的各编码器135的输出信息来计算表示机器人10的当前朝向的信息。另外,行进控制部113通过使行进装置13中包含的各车轮132的旋转速度不同,从而控制机器人10朝向行进方向。
<机器人10的控制方法>
对如上那样构成的机器人10的控制方法S1进行说明。图4是说明机器人10的控制方法S1的流程图。另外,以下说明的控制方法S1是按照每个测距数据的取得周期执行的。
在步骤S101中,测距数据取得部111取得从测域传感器12输出的测距数据,并将其存储在存储器102中。
在步骤S102中,行进方向决定部112将存储在存储器102中的最近两个周期以上的测距数据输入到第1学习模型M1,并取得其输出信息。在本实施例中,如上所述那样,从第1学习模型M1输出表示各方向上存在的物体的种类(例如,“人”、“人以外”以及“无物体”中的任一个)的信息,作为追随对象物可以存在的一个或多个方向。
在步骤S103中,行进方向决定部112参照第1学习模型M1的输出信息,决定机器人10的行进方向。在本实施例中,在从第1学习模型M1输出的、种类为“人”的一个或多个方向中距机器人10的距离最近的方向被决定为行进方向。
在步骤S104中,行进控制部113使机器人10沿在步骤S103中决定的方向行进。
至此,控制器11结束控制方法S1。
<机器人10的效果>
本实施例涉及的机器人10参照从以2周期以上的测距数据作为输入的第1学习模型M1输出的表示移动体的方向的信息,并将其中存在于距机器人10最近距离的物体看作追随对象物。并且,机器人10将行进方向决定为该追随对象物存在的方向。这样,由于来自以两个周期以上的测距数据作为输入的第1学习模型M1的输出反映了到存在于周围的物体的距离的变化,因此,本实施例能够更高精度地决定机器人10应该朝向的追随对象物存在的方向。
[实施例2]
以下,参照图5至图8,对根据本发明的实施例2的机器人20进行说明。另外,为了便于说明,对具有与在实施例1中说明的结构相同功能的结构标注相同的符号,并且不再重复说明。
<机器人20的主要结构>
图5是示出机器人20的主要结构的概略图。如图5所示,机器人20具有控制器21、测域传感器12、行进装置13以及摄像装置24。作为功能性结构,控制器21包括测距数据取得部111、行进方向决定部212、行进控制部113、摄像图像取得部214、第1学习模型M1以及第2学习模型M2。摄像图像取得部214和第2学习模型M2也可以包括在摄像装置24中。关于测域传感器12、行进装置13、测距数据取得部111、行进控制部113以及第1学习模型M1的结构,由于与实施例1中说明的相同,因此不再重复说明。关于其他结构的详细情况将在后文叙述。
图6是示出机器人20的硬件结构的一例的框图。如图6所示,控制器21是由包括处理器101、存储器102以及通信接口103的计算机构成的。另外,控制器21经由交换式集线器SW分别与测域传感器12、行进装置13以及摄像装置24可通信地连接。
关于处理器101、存储器102、以及通信接口103,虽然与在实施例1中说明的相同,但还存在如下不同点。在存储器102中存储有用于使处理器101执行后述的控制器21的控制方法S2的程序。处理器101通过读取并执行存储在存储器102中的程序来执行控制方法S2。另外,在存储器102中存储有为了执行控制方法S2而由处理器101参照的各种数据。
<摄像装置24的结构>
摄像装置24对机器人20的周围进行摄像。具体而言,摄像装置24通过朝向机器人20的行进方向进行摄像处理来生成二维的摄像图像。摄像装置24包括单板计算机241和摄像元件242。
摄像元件242例如是CMOS(Complementary Metal Oxide Semiconductor:互补金属氧化物半导体)图像传感器等光电转换元件,将通过透镜(未图示)从规定的视场角的范围入射的光转换为图像信号。单板计算机241在控制器21的控制下,周期性地执行如下摄像处理;打开快门(未图示)进行曝光并且根据来自摄像元件242的图像信号生成摄像图像。作为一例,摄像元件242的水平视场角为±66度。但是,水平视场角不限于此。
<控制器21的各功能块的详细结构>
(摄像图像取得部214的结构)
摄像图像取得部214从摄像装置24取得摄像图像。具体而言,摄像图像取得部214通过每隔预定的周期对摄像装置24指示摄像处理,由此取得从摄像装置24输出的摄像图像。摄像图像取得部214将取得的摄像图像输入到第2学习模型M2。另外,摄像图像的取得周期和测距数据的取得周期可以相同,也可以不同。但是,要想取得具有比测距数据的容量大的摄像图像,则需要比取得测距数据花费更多时间。因此,有时将摄像图像的取得周期设定为比测距数据的取得周期长。作为一例,测距数据的取得周期为50毫秒,摄像图像的取得周期为500毫秒。但是,各周期并不限于此。
(第2学习模型M2的结构)
如图5所示,第2学习模型M2是通过摄像装置24生成的摄像图像作为输入并且输出表示在该摄像图像中可以包含追随对象物的一个或多个图像区域的信息来进行机器学习的程序。
图7是说明第2学习模型M2的输入输出的图。将摄像图像输入到第2学习模型M2。另外,在图7中,虽然示出了一个周期的摄像图像,但并不限定输入到第2学习模型M2的摄像图像的周期的数量。在第2学习模型M2中输入一个周期以上的摄像图像。从第2学习模型M2输出表示可以包括追随对象物的一个或多个图像区域的信息。例如,从第2学习模型M2输出表示包括与追随对象物相同种类的物体(例如“人”)作为被摄体的图像区域的信息。
另外,第2学习模型M2使用教师数据进行机器学习。例如,控制器21预先执行生成教师数据并机器学习第2学习模型M2的处理。例如,控制器21在多个移动体(人、轮椅、台车等)存在于机器人20的周围的状况下,使用摄像装置24取得摄像图像。另外,控制器21取得表示在该摄像图像中作为与追随对象物相同种类的物体的“人”分别存在的图像区域的信息。人分别存在的图像区域是通过操作员的输入而取得的。另外,控制器21将与取得的摄像图像和人分别存在的图像区域相关联的数据作为教师数据,使第2学习模型M2进行机器学习。
关于用于第2学习模型M2的机器学习的机器学习算法,由于与第1学习模型M1中说明的相同,因此不再重复说明。另外,第2学习模型M2不限于通过该机器人20的控制器21进行机器学习的模型,也可以是通过其他机器人20的控制器21或机器人20的外部的装置进行机器学习的模型。
(行进方向决定部212的结构)
图5所示的行进方向决定部212参照从第1学习模型M1输出的一个或多个方向中的、通过参照第2学习模型M2的输出信息提取出的一个或多个方向,决定机器人20的行进方向。换言之,行进方向决定部212参照第2学习模型M2的输出信息,对从第1学习模型M1输出的一个或多个方向进行筛选。另外,行进方向决定部212参照最近得到的测距数据,将通过参照第2学习模型M2的输出信息提取出的方向上存在的物体中朝向距离最近的物体的方向决定为机器人20的行进方向。
这里,针对参照第2学习模型M2的输出信息对从第1学习模型M1输出的一个或多个方向进行筛选的处理的具体例子进行说明。例如,行进方向决定部212提取从第1学习模型M1输出的、种类“人”的物体的一个或多个方向中存在包含在从第2学习模型M2输出的图像区域内的被摄体的方向。例如,行进方向决定部212提取从第1学习模型M1输出的一个或多个方向中的、包括在与从第2学习模型M2输出的图像区域对应的方向的范围内的方向。
<机器人20的控制方法>
对如上那样构成的机器人20的控制方法S2进行说明。图8是说明机器人20的控制方法S2的流程图。另外,以下说明的控制方法S2是按照每个测距数据的取得周期执行的。
步骤S201至S202中的控制器21的动作与步骤S101中的控制器11的动作相同,因此不再重复说明。
接下来的步骤S203至S204的处理是在符合摄像图像的取得周期的情况下执行的,在不符合的情况下省略执行。
在步骤S203中,摄像图像取得部214从摄像装置24取得摄像图像。
在步骤S204中,行进方向决定部212将存储在单板计算机241上的未图示的存储器中的最近的拍摄图像输入到第2学习模型M2中,取得其输出信息并存储到存储器102中。
在步骤S205中,行进方向决定部212参照第2学习模型M2的输出信息,对在步骤S202中从第1学习模型M1输出的一个或多个方向进行筛选。另外,行进方向决定部212参照筛选出的一个或多个方向,决定机器人20的行进方向。
步骤S206中控制器21的动作与步骤S104中的控制器11的动作相同,因此不再重复说明。
至此,控制器21结束控制方法S2。
上述控制方法S2中,对测距数据的取得周期(例如50毫秒)比摄像图像的取得周期(例如500毫秒)短的情况进行了说明。控制器21将响应于摄像图像的取得而从第2学习模型M2输出的信息存储在存储器102中。因此,控制器21基于响应于测距数据的取得而从第1学习模型M1输出的信息和最近存储在存储器102中的来自第2学习模型M2的输出信息来决定机器人20的行进方向。
<机器人20的效果>
在本实施例中,第1学习模型M1的输出信息反映了到物体的距离的变化,而第2学习模型M2的输出信息反映了存在于周围的物体的二维的外观信息。另外,由于测距数据的取得周期比摄像图像的取得周期短,因此响应于测距数据的取得而从第1学习模型M1输出的信息与响应于摄像图像的取得而从第2学习模型M2输出的信息相比具有更高的实时性。因此,控制器21使用反映了二维的外观信息的第2学习模型M2的输出信息,对实时性更高且反映了到物体的距离的变化的第1学习模型M1的输出信息进行筛选。由此,本实施例能够更高精度地决定机器人的行进方向。
[实施例3]
以下,参照图9至图14,对根据本发明的实施例3的机器人30进行说明。另外,为了便于说明,对具有与在实施例1至2中说明的结构相同的功能的结构标注相同的符号,不再重复说明。
<机器人30的主要结构>
图9是示出机器人30的主要结构的框图。如图9所示,机器人30具有控制器31、测域传感器12、行进装置13以及摄像装置24。作为功能性的结构,控制器31包括测距数据取得部111、行进方向决定部312、行进控制部113、摄像图像取得部214、对象方向确定部315、以及障碍物区域确定部316。另外,控制器31包括第1学习模型M1、第2学习模型M2以及第3学习模型M3。摄像图像取得部214和第2学习模型M2可以包括在摄像装置24中。关于测域传感器12、行进装置13、测距数据取得部111、行进控制部113、摄像图像取得部214、第1学习模型M1以及第2学习模型M2的结构,由于与实施例1至2中说明的相同,因此不再重复说明。关于其他结构的详细情况将在后文叙述。
另外,作为机器人30的硬件结构的一例,可以是与图6所示的机器人20相同的硬件结构。关于处理器101、存储器102、通信接口103,虽然与在实施例1中说明的相同,但还存在如下不同点。存储器102中存储有用于使处理器101执行后述的控制器31的控制方法S3的程序。处理器101通过读取并执行存储在存储器102中的程序来执行控制方法S3。另外,在存储器102中存储有为了执行控制方法S3而由处理器101参照的各种数据。
<控制器31的各功能块的详细结构>
(第3学习模型M3的结构)
如图9所示,第3学习模型M3通过表示追随对象物的方向的信息和表示障碍物存在的空间区域的信息作为输入并且输出表示用于在回避障碍物的同时朝向追随对象物的方向的信息了来进行机器学习。
图10是说明第3学习模型M3的输入输出的图。对第3学习模型M3输入表示追随对象物的方向的信息和表示障碍物存在的空间区域的信息。关于这些输入信息的详细情况将在后文叙述。从第3学习模型M3输出表示用于在回避障碍物的同时朝向追随对象物的机器人30的方向的信息。在下文中,也将用于在回避障碍物的同时朝向追随对象物的机器人30的方向记载为回避方向。
另外,第3学习模型M3使用教师数据进行机器学习。例如,控制器31预先执行生成教师数据并使其机器学习第3学习模型M3的处理。例如,控制器31在作为追随对象物的特定的人和障碍物存在于机器人30的周围的状况下,取得表示特定的人的方向的信息。表示特定的人的方向的信息可以是从后述的对象方向确定部315取得的,也可以是通过操作员的输入取得的。另外,控制器31基于在该状况下得到的测距数据,生成表示障碍物存在的空间区域的信息。另外,控制器31取得表示用于在回避障碍物的同时朝向追随对象物的回避方向的信息。表示回避方向的信息是能够通过计算取得的。例如,控制器31可以使用如下公知的方法:基于表示特定的人的方向的信息和表示障碍物存在的空间区域的信息,计算用于在回避障碍物的同时朝向追随对象物的回避方向。另外,控制器31将表示所取得的特定的人的方向的信息和表示障碍物存在的空间区域的信息与计算出的回避方向相关联后得到的数据作为教师数据,使第3学习模型M3进行机器学习。
关于在第3学习模型M3的机器学习中使用的机器学习算法,由于与第1学习模型M1中说明的相同,因此不再重复说明。另外,第3学习模型M3不限于通过该机器人30的控制器31进行机器学习的模型,也可以是通过其他机器人30的控制器31或机器人30的外部装置进行机器学习的模型。
(对象方向确定部315的结构)
如图9所示,对象方向确定部315参照测距数据和第1学习模型M1的输出信息,确定追随对象物的方向。作为测距数据,可以参照最近得到的数据。表示追随对象物存在的方向的信息与由后述的障碍物区域确定部316确定的表示障碍物存在的空间区域的信息一起被输入到第3学习模型M3。
详细而言,对象方向确定部315参照从第1学习模型M1输出的一个或多个方向中的、通过参照第2学习模型M2的输出信息提取出的一个或多个方向,确定追随对象物的方向。换言之,对象方向确定部315参照第2学习模型M2的输出信息来筛选从第1学习模型M1输出的一个或多个方向。另外,对象方向确定部315参照最近得到的测距数据,将通过参照第2学习模型M2的输出信息提取出的方向上存在的物体中朝向距离最近的物体的方向确定为追随对象物存在的方向。另外,关于参照第2学习模型M2的输出信息对从第1学习模型M1输出的一个或多个方向进行筛选的处理的具体例子,与实施例2中说明的相同,因此不再重复说明。
(障碍物区域确定部316的结构)
障碍物区域确定部316参照测距数据和追随对象物的方向,确定障碍物存在的空间区域。作为测距数据,可以参照最近测量的数据。作为追随对象物的方向,可以参照由对象方向确定部315确定的方向。表示障碍物存在的空间区域的信息与由对象方向确定部315确定的、表示追随对象物存在的方向的信息一起被输入到第3学习模型M3。
这里,作为表示障碍物存在的空间区域的信息的一例,可以举出放大障碍物栅格地图。放大障碍物栅格地图是表示在俯视机器人30的周围的空间的平面中放大后的障碍物的区域的栅格地图。具体而言,障碍物区域确定部316将测距数据表示的多个方向中的、除了由对象方向确定部315确定的追随对象物的方向之外的方向上存在的物体设为障碍物。这样确定的障碍物包括:(1)在测距数据表示的多个方向中的、来自第1学习模型M1的输出信息没有表示的方向上存在的物体(作为一例,可以是“人”以外的物体);以及(2)在来自第1学习模型M1的输出信息表示的追随对象物以外的方向上存在的物体(作为一例,可以是“特定的人”以外的“人”)。另外,障碍物区域确定部316根据测距数据,生成障碍物映射信息,该障碍物映射信息是将障碍物二维映射到俯视观察机器人30的周围的空间时的平面上后得到的。另外,障碍物区域确定部316生成将障碍物映射信息离散化后的障碍物栅格地图。另外,障碍物区域确定部316生成在障碍物栅格地图中将障碍物的区域放大后的放大障碍物栅格地图。
图11是示意性地示出障碍物映射信息的概略俯视图。在图11中,将搭载在机器人30的框体上的测域传感器12的位置作为原点,将机器人30的前进方向作为x轴正方向,将与x轴正交的方向作为y轴。在图11中,障碍物由小圆形标记表示。由于测域传感器12的扫描范围为±θ度(这里是θ=115)的范围,因此在图11中,表示障碍物的圆形标记也被描绘在相对于机器人30的前进方向±θ度的范围内。
图12示出障碍物栅格地图的一例。这里,障碍物区域确定部316通过将图11所示的障碍物映射信息表示的平面中的、x轴方向4m×y轴方向5m的区域离散成0.1m×0.1m的栅格,从而生成图12所示的障碍物格栅地图。
图13示出放大障碍物格栅地图的一例。障碍物区域确定部316通过对图12的障碍物格栅地图实施使障碍物的区域扩大机器人30的占地面积的半径量的形态处理,从而生成图13所示的放大障碍物格栅地图。在这样的放大障碍物格栅地图中,只要格栅空出1格,机器人30就能够在障碍物之间通过。
(行进方向决定部312的结构)
如图9所示,行进方向决定部312通过将分别表示追随对象物的方向和障碍物的空间区域的信息输入到第3学习模型M3,从而将第3学习模型M3的输出信息表示的回避方向决定为机器人30的行进方向。从第3学习模型M3输出的回避方向有时与从机器人30观察到的追随对象物存在的方向不同。这是在追随对象物与机器人30之间存在障碍物的情况。由此,机器人30能够在降低与障碍物碰撞的可能性的同时追随追随对象物的方式行进。
<机器人30的控制方法>
对如上那样构成的机器人30的控制方法S3进行说明。图14是说明机器人30的控制方法S3的流程图。另外,以下说明的控制方法S3是按照每个测距数据的取得周期执行的。
在步骤S301中,控制器31取得来自第1学习模型M1的输出信息和来自第2学习模型M2的输出信息。关于步骤S301的处理的详细内容,与在图8的步骤S201至S204中说明的内容相同,因此不再重复说明。
在步骤S302中,对象方向确定部315确定在步骤S301中从第1学习模型M1输出的一个或多个方向中追随对象物存在的方向。另外,对象方向确定部315参照通过参照来自第2学习模型M2的输出信息提取出的一个或多个方向来进行确定该方向的处理。
在步骤S303中,障碍物区域确定部316基于最近取得的测距数据和来自第1学习模型M1的输出信息,生成表示存在于机器人30的周围的障碍物的空间区域的信息。这里,生成上述的扩大障碍物栅格地图。
在步骤S304中,行进方向决定部312将表示追随对象物存在的方向的信息和表示障碍物的空间区域的信息(放大障碍物栅格地图)输入到第3学习模型M3,并取得其输出信息。
在步骤S305中,行进方向决定部312将从第3学习模型M3输出的回避方向决定为机器人30的行进方向。
步骤S306中的控制器31的动作与步骤S101中的控制器11的动作相同,因此不再重复说明。
至此,控制器31结束控制方法S3。
<机器人30的效果>
在本实施例中,使用最近取得的测距数据和来自第1学习模型M1的输出,确定追随对象物的方向和障碍物的空间区域。这里,在来自第1学习模型M1的输出中,反映了到存在于各方向上的物体的距离的变化,因此本实施例能够高精度地确定作为移动体的追随对象物的方向。另外,由于将追随对象物存在的方向以外的方向上存在的物体确定为障碍物,因此本实施例能够高精度地确定障碍物存在的空间区域。其结果是,在本实施例中,由于使用将分别表示这样确定的追随对象物的方向和障碍物的空间区域的信息作为输入的第3学习模型M3,因此能够更高精度地决定用于在回避障碍物的同时追随追随对象物的回避方向。
[变形例]
<来自第1学习模型M1的输出信息的变化>
在上述各个实施例中,对来自第1学习模型M1的输出信息ci表示在方向ri上存在的物体的种类的例子进行了说明。不限于此,作为来自第1学习模型M1的输出信息的每个方向的ci(i=1、2、……、n)也可以表示追随对象物在方向ri上存在的概率。在这种情况下,作为在机器学习第1学习模型M1时使用的教师数据,可以使用将两个周期以上的测距数据与追随对象物存在的方向相关联后得到的信息。另外,来自第1学习模型M1的输出信息也可以是其他信息,只要是表示追随对象物可以存在的一个或多个方向的信息即可。
<来自第2学习模型M1的输出信息的变化>
在上述各个实施例中,对作为来自第2学习模型M2的输出信息的图像区域是表示包含与追随对象物的“特定的人”相同种类的物体即“人”作为被摄体的图像区域的情况进行了说明。不限于此,来自第2学习模型M2的输出信息也可以是表示针对每个像素将追随对象物作为被摄体而包含的概率的信息。在这种情况下,作为在机器学习第2学习模型M2时使用的教师数据,可以使用将摄像图像与包括追随对象物的区域相关联的信息。另外,来自第2学习模型M2的输出信息也可以是其他信息,只要是表示可以包含追随对象物的一个或多个图像区域的信息即可。
<追随对象物以外的目标物>
在上述实施例3中,也可以是,控制器31控制机器人30,以使其在预定的时刻、或者响应于来自外部的指示,朝向目标位置行进来代替追随追随对象物。在该情况下,障碍物区域确定部316参照测距数据来确定障碍物存在的空间区域。另外,对象方向确定部315确定朝向目标位置的目标方向,来代替确定追随对象物的方向。目标方向是从机器人30的当前位置朝向目标位置的方向。另外,对第3学习模型M3输入表示目标方向的信息和表示障碍物存在的空间区域的信息。目标位置例如可以是在设施内的巡回路线中预先设定的通过点。由此,机器人30通常在以追随追随对象物的方式行进的同时在预定的时刻到来时或者接受到来自外部的指示时,能够以朝向目标位置的方式行进。但是,目标位置不限于上述的通过点。例如,目标位置也可以是从外部输入的位置。
<规定的对象物的变化>
在上述各个实施例中,对本发明的规定的对象物为移动体、机器人追随作为该移动体的追随对象物的例子进行了说明。不限于此,本发明的规定的对象物也可以是不移动的物体。
[基于软件和硬件的实现例]
在上述各个实施例中,对以处理器101按照存储在作为内部存储介质的存储器102中的程序执行控制方法S1至S3的方式实现控制器11至31的情况进行了说明,但并不限于此。例如,也可以采用处理器101按照存储在外部记录介质中的程序执行控制方法S1至S3的方式。在这种情况下,作为外部记录介质,可以使用计算机可读取的“非暂时有形的介质”,例如磁带、盘、卡、半导体存储器或可编程逻辑电路等。或者,上述程序也可以经由能够传输该程序的任意的传输介质(通信网络或广播波等)提供给上述计算机。另外,本发明的一个方面也可以是通过上述程序以电子传输方式而具体化的、嵌入载波中的数据信号的形式来实现的。
另外,在上述各个实施例中,控制器11至31不限于通过处理器101按照存储在存储器102中的程序进行操作的方式实现,也可以是通过形成在集成电路(IC芯片)等中的逻辑电路(硬件)来实现的。
〔总结〕
为了解决上述课题,根据上述实施例的机器人是自走式的机器人,并且该机器人具有:传感器,其在每个方向上对从所述机器人到周围存在的物体之间的距离进行测量;以及控制器,其参照从所述传感器输出的测距数据对所述机器人进行控制,所述控制器使用第1学习模型执行如下处理:参照所述第1学习模型的输出信息,决定所述机器人的行进方向,以使其朝向所述规定的对象物,其中,所述第1学习模型通过将所述测距数据作为输入并且输出表示所述物体中规定的对象物可以存在的一个或多个方向的信息来进行机器学习。
根据上述结构,使用以测距数据作为输入的第1学习模型,决定机器人的行进方向,以使其朝向规定的对象物。由此,与使用将不包括到物体的距离信息的摄像图像作为输入的机器学习模型的情况相比,能够更高精度地决定机器人的行进方向。例如,在机器人的周围存在人、墙壁、轮椅等物体。其中,规定的对象物例如是特定的人、特定的轮椅等。在上述结构中,来自将包含到人、墙壁、轮椅等物体的距离信息的测距数据作为输入的第1学习模型的输出成为反映了到物体的距离的信息。因此,在上述结构中,考虑了到人、墙壁、轮椅等物体的距离,因此能够更高精度地决定朝向特定的人、特定的轮椅等的机器人的行进方向。
在上述实施例涉及的机器人中,优选的是,所述规定的对象物是移动体,所述传感器周期性地执行在每个方向上测量所述距离的处理,所述第1学习模型将至少两个周期以上的所述测距数据作为输入,并且将表示所述物体中移动体存在的一个或多个方向的信息作为所述规定的对象物可以存在的一个或多个方向进行输出。
根据上述结构,设在机器人的周围存在的物体中的任意一个移动体是规定的对象物,则能够更高精度地决定机器人的行进方向。另外,移动体是指能够移动的物体,例如是人、轮椅、台车等。
在上述实施例涉及的机器人中,优选的是,所述机器人还具有对所述机器人的周围进行摄像的摄像装置,所述控制器还使用第2学习模型,在所述决定的处理中,参照从所述第1学习模型输出的一个或多个方向中的、通过参照所述第2学习模型的输出信息提取出的一个或多个方向,决定所述机器人的行进方向,其中,所述第2学习模型通过将由所述摄像装置生成的摄像图像作为输入并且输出表示在所述摄像图像中可以包括所述规定的对象物的一个或多个图像区域的信息来机器学习。
根据上述结构,由于在通过参照测距数据检测到的规定的对象物的一个或多个方向中,通过参照摄像图像提取出存在规定的对象物的可能性更高的方向,因此能够更高精度地决定机器人的行进方向。
在上述实施例的机器人中,优选的是,所述控制器还使用第3学习模型,在所述决定的处理中,通过参照所述测距数据和所述第1学习模型的输出信息确定所述规定的对象物的方向和所述障碍物的空间区域,并且将确定的信息输入到所述第3学习模型,从而将所述第3学习模型的输出信息表示的方向决定作为所述机器人的行进方向,其中,所述第3学习模型通过将表示所述规定的对象物的方向的信息和表示障碍物存在的空间区域的信息作为输入并且输出表示用于在回避障碍物的同时朝向所述规定的对象物的方向的信息来进行机器学习。
根据上述结构,能够更高精度地决定用于在回避障碍物的同时朝向规定的对象物的机器人的行进方向。
在上述实施例涉及的机器人中,优选的是,所述控制器具有:输入接口,其取得从所述传感器输出的测距数据;处理器,其根据程序执行所述各个处理;以及存储器,其对所述程序进行存储。
根据上述结构,能够使用程序控制上述机器人。
为了解决上述课题,根据本发明的一个方面的控制方法是自走式的机器人的控制方法,其包括如下步骤:在每个方向上对从所述机器人到周围存在的物体之间的距离进行测量;以及参照在所述测量的步骤中输出的测距数据对所述机器人进行控制,在所述控制的步骤中,包括如下处理;使用第1学习模型,并且参照所述第1学习模型的输出信息,决定所述机器人的行进方向,以使其朝向所述规定的对象物,其中,所述第1学习模型通过将所述测距数据作为输入并且输出表示所述物体中规定的对象物可以存在的一个或多个方向的信息来进行机器学习。
根据上述结构,能够起到与上述机器人同样的效果。
为了解决上述课题,根据上述实施例的程序是对上述机器人进行控制的程序,该程序使所述控制器执行所述各个处理。
根据上述结构,能够提供为了控制根据上述实施例的机器人而由计算机执行的程序。
另外,记录有上述程序的计算机可读取的记录介质也属于本发明的范围。
本发明不限于上述各个实施例,能够在权利要求所示的范围内进行各种变更,对于将不同的实施例中分别公开的技术手段适当组合而得到的实施例,也包含在本发明的技术范围内。此外,通过将在各个实施例中分别公开的技术手段进行组合,可以形成新的技术特征。
标号说明:
10、20、30:机器人;
11、21、31:控制器;
12:测域传感器;
111:测距数据取得部;
112、212、312:行进方向决定部;
113:行进控制部;
214:摄像图像取得部;
315:对象方向确定部;
316:障碍物区域确定部;
101:处理器;
102:存储器;
103:通信接口;
13:行进装置;
131:PLC;
132:车轮;
133:电动机;
134:驱动电路;
135:编码器;
24:摄像装置;
241:单板计算机;
242:摄像元件。

Claims (7)

1.一种机器人,其为自走式的机器人,其特征在于,所述机器人具有:
传感器,其在每个方向上对从所述机器人到周围存在的物体之间的距离进行测量,以及
控制器,其参照从所述传感器输出的测距数据对所述机器人进行控制,
所述控制器使用第1学习模型执行以下处理:参照所述第1学习模型的输出信息,决定所述机器人的行进方向,以使所述机器人朝向规定的对象物,
其中,所述第1学习模型通过将所述测距数据作为输入并且输出表示所述物体中所述规定的对象物能够存在的一个或多个方向的信息来进行机器学习。
2.根据权利要求1所述的机器人,其特征在于,
所述规定的对象物是移动体,
所述传感器周期性地执行在每个方向上测量所述距离的处理,
所述第1学习模型将至少两个周期以上的所述测距数据作为输入,并且将表示所述物体中移动体存在的一个或多个方向的信息作为所述规定的对象物能够存在的一个或多个方向进行输出。
3.根据权利要求1或2所述的机器人,其特征在于,
所述机器人还具有对所述机器人的周围进行摄像的摄像装置,
所述控制器还使用第2学习模型,在所述决定的处理中,参照从所述第1学习模型输出的一个或多个方向中的、通过参照所述第2学习模型的输出信息提取出的一个或多个方向,决定所述机器人的行进方向,
其中,所述第2学习模型通过将由所述摄像装置生成的摄像图像作为输入并且输出表示在所述摄像图像中能够包括所述规定的对象物的一个或多个图像区域的信息来进行机器学习。
4.根据权利要求1或2所述的机器人,其特征在于,
所述控制器还使用第3学习模型,在所述决定的处理中,通过参照所述测距数据和所述第1学习模型的输出信息确定所述规定的对象物的方向和障碍物的空间区域,并且将所确定的信息输入到所述第3学习模型,从而将所述第3学习模型的输出信息表示的方向决定作为所述机器人的行进方向,
其中,所述第3学习模型通过将表示所述规定的对象物的方向的信息和表示所述障碍物存在的空间区域的信息作为输入并且输出表示用于在回避所述障碍物的同时朝向所述规定的对象物的方向的信息来进行机器学习。
5.根据权利要求1至4中任一项所述的机器人,其特征在于,
所述控制器具有:
输入接口,其取得从所述传感器输出的测距数据;
处理器,其根据程序执行所述各个处理;以及
存储器,其对所述程序进行存储。
6.一种控制方法,其为自走式的机器人的控制方法,其特征在于,所述控制方法包括以下步骤:
在每个方向上对从所述机器人到周围存在的物体之间的距离进行测量,以及
参照在所述测量的步骤中输出的测距数据对所述机器人进行控制,
所述控制的步骤包括以下处理;使用第1学习模型,并且参照所述第1学习模型的输出信息,决定所述机器人的行进方向,以使所述机器人朝向规定的对象物,
其中,所述第1学习模型通过将所述测距数据作为输入并且输出表示所述物体中所述规定的对象物能够存在的一个或多个方向的信息来进行机器学习。
7.一种存储介质,其存储对根据权利要求1至5中任一项所述的机器人进行控制的程序,其特征在于,
所述存储介质使所述控制器执行所述各个处理。
CN202011145337.3A 2019-11-29 2020-10-23 机器人、控制方法以及存储介质 Pending CN112882461A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-217132 2019-11-29
JP2019217132A JP7342664B2 (ja) 2019-11-29 2019-11-29 ロボット、制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
CN112882461A true CN112882461A (zh) 2021-06-01

Family

ID=76042958

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011145337.3A Pending CN112882461A (zh) 2019-11-29 2020-10-23 机器人、控制方法以及存储介质

Country Status (2)

Country Link
JP (1) JP7342664B2 (zh)
CN (1) CN112882461A (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115164910B (zh) * 2022-06-22 2023-02-21 小米汽车科技有限公司 行驶路径生成方法、装置、车辆、存储介质及芯片

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134003A (ja) * 1997-10-31 1999-05-21 Mitsubishi Electric Corp モジュール型学習制御方法
JP4910090B2 (ja) 2007-02-19 2012-04-04 国立大学法人横浜国立大学 画像処理システム
JP7078349B2 (ja) 2016-11-25 2022-05-31 株式会社竹中工務店 電動走行台車
JP6889841B2 (ja) 2017-03-01 2021-06-18 オムロン株式会社 学習装置、学習結果利用装置、学習方法及び学習プログラム

Also Published As

Publication number Publication date
JP7342664B2 (ja) 2023-09-12
JP2021086541A (ja) 2021-06-03

Similar Documents

Publication Publication Date Title
KR102670610B1 (ko) 공항용 로봇 및 그의 동작 방법
CN108156450B (zh) 用于校准摄像机的方法、校准设备、校准系统以及机器可读的存储介质
DK2952993T3 (en) PROCEDURE FOR MAKING A CARD OF LIKELIHOOD FOR ONE OF THE ABSENCE OR EXISTENCE OF BARRIERS FOR AN AUTONOMOUS ROBOT
CN112020688B (zh) 使用深度评估进行自主机器人导航的装置、系统和方法
JP5048077B2 (ja) 周辺の環境変化に迅速に適応し、環境マップを作成することができる移動体の環境マップ作成装置及びその方法
KR20180055571A (ko) 이동 로봇 시스템, 이동 로봇 및 이동 로봇 시스템의 제어 방법
JP5276931B2 (ja) 移動体および移動体の位置推定誤り状態からの復帰方法
KR20150144731A (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US11112780B2 (en) Collaborative determination of a load footprint of a robotic vehicle
JP2006350601A (ja) 移動監視ロボット
JP2016067773A (ja) 自律移動ロボット及びバイタルサインモニタリング方法
CN112882461A (zh) 机器人、控制方法以及存储介质
JP2009112447A (ja) 筋力補助装置
JP2007265343A (ja) 移動物体の追従装置及び同装置を備えた電動車椅子
JP2019145039A (ja) 自走式ロボットおよび自走式ロボットの制御方法
KR101400400B1 (ko) 로봇 청소기 및 로봇 청소기의 제어방법
JP4774401B2 (ja) 自律移動体の経路設定装置
JP2018005470A (ja) 自律移動装置、自律移動方法及びプログラム
CN115565058A (zh) 机器人、避障方法、装置和存储介质
JP7192563B2 (ja) 自律移動ロボット
JP2008012635A (ja) 人物識別システム
WO2022116628A1 (zh) 避障控制系统、方法、存储介质、计算机程序产品及移动设备
JP2008171195A (ja) 防犯センサ
Michalke et al. A self-adaptive approach for curbstone/roadside detection based on human-like signal processing and multi-sensor fusion
JP7120071B2 (ja) 自律移動ロボット

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination