CN114698388A - 自身位置估计模型学习方法、自身位置估计模型学习装置、自身位置估计模型学习程序、自身位置估计方法、自身位置估计装置、自身位置估计程序以及机器人 - Google Patents

自身位置估计模型学习方法、自身位置估计模型学习装置、自身位置估计模型学习程序、自身位置估计方法、自身位置估计装置、自身位置估计程序以及机器人 Download PDF

Info

Publication number
CN114698388A
CN114698388A CN202080076842.9A CN202080076842A CN114698388A CN 114698388 A CN114698388 A CN 114698388A CN 202080076842 A CN202080076842 A CN 202080076842A CN 114698388 A CN114698388 A CN 114698388A
Authority
CN
China
Prior art keywords
self
position estimation
image
overhead
estimation model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080076842.9A
Other languages
English (en)
Inventor
黑濑真衣
米谷龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Publication of CN114698388A publication Critical patent/CN114698388A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

自身位置估计模型学习装置(10)包括:取得部(30),其按时间序列取得在动态环境中从自身位置估计对象的视点拍摄到的局部图像以及从俯瞰自身位置估计对象的位置拍摄到的与所述局部图像同步的俯瞰图像;以及学习部(32),其对以按时间序列取得的局部图像以及俯瞰图像为输入而输出自身位置估计对象的位置的自身位置估计模型进行学习。

Description

自身位置估计模型学习方法、自身位置估计模型学习装置、自 身位置估计模型学习程序、自身位置估计方法、自身位置估计 装置、自身位置估计程序以及机器人
技术领域
本发明涉及自身位置估计模型学习方法、自身位置估计模型学习装置、自身位置估计模型学习程序、自身位置估计方法、自身位置估计装置、自身位置估计程序以及机器人。
背景技术
在现有的基于特征点的自身位置估计(Simultaneously Localization andMapping:SLAM)算法(例如参照非专利文献1“ORB-SLAM2:an Open-Source{SLAM}Systemfor Monocular,Stereo and{RGB-D}Cameras https:/128.84.21.199/pdf/1610.06475.pdf”)中,通过在多个视点观测三维空间中的静态特征点,计算旋转或平移那样的移动信息。
但是,在人群场景等包括较多动物体和遮挡的环境下,几何制约失败,无法进行稳定的位置复原,频繁丢失地图上的自身位置(例如参照非专利文献2“Getting RobotsUnfrozen and Unlost in Dense Pedestrian Crowds https://arxiv.org/pdf/1810.00352.pdf”)。
作为其他处理动物体的方法,存在将动物体的运动直接模型化的方法、使用降低相当于动物体的部位的影响那样的误差函数的鲁棒估计方法,但都无法应用于如人群那样的复杂且密集的动态环境。
此外,在以非专利文献1记载的技术为代表的基于特征点的SLAM中,通过根据场景的特征点制作视觉词库(Visual Vocabrary),将其保存在数据库中,能够识别同一场景。
另外,在非专利文献3([N.N+,ECCV’16]Localizing and Orienting StreetViews Using Overhead Imagery https://lugiavn.github.io/gatech/crossview_ecev2016/nam_ecev2016.pdf)、非专利文献4([S.Workman+,ICCV’15]Wide-Area ImageGeolocalization with Aerial Reference Imagery https://www.cv-foundation.org/openaccess/content_iccv_2015/papers/Workman_Wide-Area_Image_Geolocalization_ICCV_2015_paper.pdf)中,公开了能够从俯瞰图像和局部图像分别进行特征提取,检索局部图像分别与俯瞰图像的哪个块对应的技术。
发明内容
发明所要解决的课题
但是,在上述非专利文献3、4记载的技术中,由于都仅将静态场景间的图像类似度作为匹配的线索,所以匹配精度低,候选区域大量出现。
本公开的技术是鉴于上述的点而完成的,其目的在于提供一种即使在以往难以估计自身位置估计对象的自身位置的动态环境中,也能够估计自身位置估计对象的自身位置的自身位置估计模型学习方法、自身位置估计模型学习装置、自身位置估计模型学习程序、自身位置估计方法、自身位置估计装置、自身位置估计程序以及机器人。
用于解决课题的手段
本公开的第一方式是一种自身位置估计模型学习方法,由计算机执行包括如下步骤的处理:取得步骤,按时间序列取得局部图像和与所述局部图像同步的俯瞰图像,所述局部图像是在动态环境中从自身位置估计对象的视点拍摄到的局部图像,所述俯瞰图像是从俯瞰所述自身位置估计对象的位置拍摄到的俯瞰图像;以及学习步骤,对自身位置估计模型进行学习,所述自身位置估计模型以按时间序列取得的所述局部图像以及所述俯瞰图像为输入而输出所述自身位置估计对象的位置。
在上述第一方式中,也可以是,所述学习步骤包括:轨迹信息计算步骤,基于所述局部图像计算第一轨迹信息,并且基于所述俯瞰图像计算第二轨迹信息;特征量计算步骤,基于所述第一轨迹信息计算第一特征量,并且基于所述第二轨迹信息计算第二特征量;距离计算步骤,计算所述第一特征量与所述第二特征量的距离;估计步骤,基于所述距离估计所述自身位置估计对象的位置;以及更新步骤,以所述第一特征量与所述第二特征量的类似度越高则距离越小的方式更新所述自身位置估计模型的参数。
在上述第一方式中,也可以是,在所述特征量计算步骤中,基于从上次估计出的所述自身位置估计对象的位置附近的区域选择出的多个部分区域中的所述第二轨迹信息,计算所述第二特征量,在所述距离计算步骤中,针对所述多个部分区域中的每个部分区域计算所述距离,在所述估计步骤中,将针对所述多个部分区域中的每个部分区域计算出的所述距离中的距离最小的部分区域的预先决定的位置估计为所述自身位置估计对象的位置。
本公开的第二方式是一种自身位置估计模型学习装置,其包括:取得部,其按时间序列取得局部图像和与所述局部图像同步的俯瞰图像,所述局部图像是在动态环境中从自身位置估计对象的视点拍摄到的局部图像,所述俯瞰图像是从俯瞰所述自身位置估计对象的位置拍摄到的俯瞰图像;以及学习部,其对自身位置估计模型进行学习,所述自身位置估计模型以按时间序列取得的所述局部图像以及所述俯瞰图像为输入而输出所述自身位置估计对象的位置。
本公开的第三方式是一种自身位置估计模型学习程序,用于使计算机执行包括如下步骤的处理:取得步骤,按时间序列取得局部图像和与所述局部图像同步的俯瞰图像,所述局部图像是在动态环境中从自身位置估计对象的视点拍摄到的局部图像,所述俯瞰图像是从俯瞰所述自身位置估计对象的位置拍摄到的俯瞰图像;以及学习步骤,对自身位置估计模型进行学习,所述自身位置估计模型以按时间序列取得的所述局部图像以及所述俯瞰图像为输入而输出所述自身位置估计对象的位置。
本公开的第四方式是一种自身位置估计方法,由计算机执行包括如下步骤的处理:取得步骤,按时间序列取得局部图像和与所述局部图像同步的俯瞰图像,所述局部图像是在动态环境中从自身位置估计对象的视点拍摄到的局部图像,所述俯瞰图像是从俯瞰所述自身位置估计对象的位置拍摄到的俯瞰图像;以及估计步骤,基于按时间序列取得的所述局部图像和所述俯瞰图像、以及上述第一方式所述的自身位置估计模型学习方法进行学习后的自身位置估计模型,估计所述自身位置估计对象的自身位置。
本公开的第五方式是一种自身位置估计装置,其包括:取得部,其按时间序列取得局部图像和与所述局部图像同步的俯瞰图像,所述局部图像是在动态环境中从自身位置估计对象的视点拍摄到的局部图像,所述俯瞰图像是从俯瞰所述自身位置估计对象的位置拍摄到的俯瞰图像;以及估计部,其基于按时间序列取得的所述局部图像和所述俯瞰图像、以及由上述第二方式所述的自身位置估计模型学习装置进行学习后的自身位置估计模型,估计所述自身位置估计对象的自身位置。
本公开的第六方式是一种自身位置估计程序,其用于使计算机执行包括如下步骤的处理:取得步骤,按时间序列取得局部图像和与所述局部图像同步的俯瞰图像,所述局部图像是在动态环境中从自身位置估计对象的视点拍摄到的局部图像,所述俯瞰图像是从俯瞰所述自身位置估计对象的位置拍摄到的俯瞰图像;以及估计步骤,基于按时间序列取得的所述局部图像和所述俯瞰图像、以及通过上述第一方式所述的自身位置估计模型学习方法进行学习后的自身位置估计模型,估计所述自身位置估计对象的自身位置。
本公开的第七方式是一种机器人,其包括:取得部,其按时间序列取得局部图像和与所述局部图像同步的俯瞰图像,所述局部图像是在动态环境中从机器人的视点拍摄到的局部图像,所述俯瞰图像是从俯瞰所述机器人的位置拍摄到的俯瞰图像;估计部,其基于按时间序列取得的所述局部图像和所述俯瞰图像、以及由上述第二方式所述的自身位置估计模型学习装置进行学习后的自身位置估计模型,估计所述机器人的自身位置;自主行驶部,其使所述机器人自主行驶;以及控制部,其基于由所述估计部估计出的位置,控制所述自主行驶部使所述机器人向目的地移动。
发明效果
根据本公开的技术,即使在以往难以估计自身位置估计对象的自身位置的动态环境中,也能够估计自身位置估计对象的自身位置。
附图说明
图1是表示自身位置估计模型学习系统的概略结构的图。
图2是表示自身位置估计模型学习装置的硬件结构的框图。
图3是表示自身位置估计模型学习装置的功能结构的框图。
图4是表示机器人在人群中向目的地移动的情形的图。
图5是表示自身位置估计模型学习装置的学习部的功能结构的框图。
图6是用于说明部分区域的图。
图7是表示自身位置估计模型学习装置的自身位置估计模型学习处理的流程的流程图。
图8是表示自身位置估计装置的功能结构的框图。
图9是表示自身位置估计装置的硬件结构的框图。
图10是表示自身位置估计装置的机器人控制处理的流程的流程图。
具体实施方式
以下,参照附图对本公开的技术的实施方式的一例进行说明。此外,在各附图中,对相同或等效的构成要素及部分标注相同的参照标号。另外,附图的尺寸比率有时为了便于说明而夸张,有时与实际的比率不同。
图1是表示自身位置估计模型学习系统1的概略结构的图。
如图1所示,自身位置估计模型学习系统1具备自身位置估计模型学习装置10以及模拟器20。稍后将描述模拟器20。
接着,对自身位置估计模型学习装置10进行说明。
图2是表示自身位置估计模型学习装置10的硬件结构的框图。
如图2所示,自身位置估计模型学习装置10具有CPU(Central Processing Unit:中央处理单元)11、ROM(Read Only Memory:只读存储器)12、RAM(Random Access Memory:随机存取存储器)13、存储装置14、输入部15、监视器16、光盘驱动装置17以及通信接口18。各结构经由总线19以能够相互通信的方式连接。
在本实施方式中,在存储装置14中存储有自身位置估计模型学习程序。CPU 11是中央运算处理单元,执行各种程序或控制各结构。即,CPU 11从存储装置14读出程序,将RAM13作为作业区域来执行程序。CPU 11按照存储装置14中记录的程序,进行上述各结构的控制以及各种运算处理。
ROM 12存储各种程序和各种数据。RAM 13作为作业区域暂时存储程序或数据。存储装置14由HDD(Hard Disk Drive:硬盘驱动器)或SSD(Solid State Drive:固态驱动器)构成,保存包括操作系统在内的各种程序以及各种数据。
输入部15包括键盘151以及鼠标152等指示设备,用于进行各种输入。监视器16例如是液晶显示器,显示各种信息。监视器16也可以采用触摸面板方式,作为输入部15发挥功能。光盘驱动装置17进行存储在各种记录介质(CD-ROM或蓝光光盘等)中的数据的读入、对记录介质写入数据等。
通信接口18是用于与模拟器20等其他设备进行通信的接口,例如使用以太网(注册商标)、FDDI或Wi-Fi(注册商标)等标准。
接着,对自身位置估计模型学习装置10的功能结构进行说明。
图3是表示自身位置估计模型学习装置10的功能结构的例子的框图。
如图3所示,自身位置估计模型学习装置10具有取得部30以及学习部32作为功能结构。各功能结构是通过CPU 11读出存储于存储装置14的自身位置估计程序并在RAM 13中展开并执行来实现的。
取得部30从模拟器20取得目的地信息、局部图像和俯瞰图像。模拟器20例如如图4所示那样按时间序列输出自主行驶型的机器人RB向由目的地信息表示的目的地pg移动的情况下的局部图像和与局部图像同步的俯瞰图像。
此外,在本实施方式中,如图4所示,机器人RB在包括如存在于周围的人HB等那样移动的物体的动态环境中向目的地pg移动。在本实施方式中,对移动的物体是人HB的情况、即动态环境是人群的情况进行说明,但不限于此。例如,作为动态环境的其他例子,可列举出汽车、自主行驶型机器人、无人机、飞机、以及船舶等存在的环境等。
在此,局部图像是在图4所示那样的动态环境中,以来自作为自身位置估计对象的机器人RB的视点拍摄到的图像。此外,以下,对局部图像是由光学照相机拍摄到的图像的情况进行说明,但不限于此。即,只要能够取得表示存在于机器人RB的视野的范围内的物体如何移动的动作信息即可,例如可以使用由事件照相机(Event Based Camera)取得的动作信息,也可以使用通过光流(Optical flow)等公知的方法对局部图像进行图像处理后的动作信息。
另外,俯瞰图像是从俯瞰机器人RB的位置拍摄到的图像。具体而言,俯瞰图像例如是从机器人RB的上方拍摄包括机器人RB的范围而得到的图像,是拍摄比由局部图像表示的范围大的范围而得到的图像。另外,俯瞰图像可以使用RAW(Raw image format:原始图像格式)图像,也可以使用图像处理后的影像等动态图像。
学习部32将由取得部30以时间序列取得的局部图像以及俯瞰图像作为输入,对输出机器人RB的位置的自身位置估计模型进行学习。
接着,对学习部32进行详细说明。
如图5所示,学习部32包括第一轨迹信息计算部33-1、第二轨迹信息计算部33-2、第一特征矢量计算部34-1、第二特征矢量计算部34-2、距离计算部35和自身位置估计部36。
第一轨迹信息计算部33-1根据从取得部30输入的在时间上连续的N个(N为多个)局部图像I1(={I11、I12、…、I1N}),计算人HB的第一轨迹信息t1。在第一轨迹信息t1的计算中,例如能够使用上述的光流、MOT(Multi Object Tracking:多对象跟踪)等公知的方法,但不限于此。
第二轨迹信息计算部33-2根据从取得部30输入的、在时间上连续且与局部图像I1同步的N个俯瞰图像I2(={I21、I22、…、I2N}),计算人HB的第二轨迹信息t2。在第二轨迹信息t2的计算中,与第一轨迹信息的计算同样地,能够使用光流等公知的方法,但不限于此。
第一特征矢量计算部34-1计算第一轨迹信息t1的K1维的第一特征矢量φ1(t1)。具体而言,第一特征矢量计算部34-1例如通过向第一卷积神经网络(CNN:Convolutionalneural network)输入第一轨迹信息t1,计算K1维的第一特征矢量φ1(t1)。另外,第一特征矢量φ1(t1)是第一特征量的一例,不限于特征矢量,也可以计算其他特征量。
第二特征矢量计算部34-2计算第二轨迹信息t2的K2维的第二特征矢量φ2(t2)。具体而言,第二特征矢量计算部34-2与第一特征矢量计算部34-1同样地,例如通过向与在第一特征矢量计算部34-1中使用的第一卷积神经网络不同的第二卷积神经网络输入第二轨迹信息t2,计算K2维的第二特征矢量φ2(t2)。另外,第二特征矢量φ2(t2)是第二特征量的一例,不限于特征矢量,也可以计算其他特征量。
在此,如图6所示,输入到第二卷积神经网络的第二轨迹信息t2不是俯瞰图像I2整体的轨迹信息,而是从前次检测出的机器人RB的位置pt-1的附近的局部区域L中随机选择的M个(M为多个)部分区域W1~WM中的第二轨迹信息t21~t2M。由此,针对各个部分区域W1~WM计算第二特征矢量φ2(t21)~φ2(t2M)。以下,在不区分第二轨迹信息t21~t2M的情况下,有时简称为第二轨迹信息t2。同样地,在不区分第二特征矢量φ2(t21)~φ2(t2M)的情况下,有时简称为第二特征矢量φ2(t2)。
此外,局部区域L被设定为包括机器人RB能够从上次检测出的机器人RB的位置pt-1移动的范围。此外,从局部区域L中随机选择部分区域W1~WM的位置。此外,部分区域W1~WM的数量和部分区域W1~WM的尺寸影响处理速度和自身位置的估计精度。因此,部分区域W1~WM的数量和部分区域W1~WM的尺寸根据期望的处理速度和自身位置的估计精度被设置为任意的值。以下,在不特别区分部分区域W1~WM的情况下,有时简称为部分区域W。另外,在本实施方式中,对从局部区域L中随机选择部分区域W1~WM的情况进行说明,但不限于此。例如可以将局部区域L均等分割来设定部分区域W1~WM
距离计算部35使用例如神经网络来计算表示第一特征矢量φ1(t1)与部分区域W1~WM的第二特征矢量φ2(t21)~φ2(t2M)的各个之间的类似度的距离g(φ1(t1)、φ2(t21))~g(φ1(t1)、φ2(t2M))。而且,该神经网络被学习为:第一特征矢量φ1(t1)与第二特征矢量φ2(t2)的类似度越高,距离g(φ1(t1)、φ2(t2))越小。
此外,第一特征矢量计算部34-1、第二特征矢量计算部34-2以及距离计算部35例如能够使用利用了对比损失(Contrastive loss)的孪生网络(Siamese Network)、三元组损失(triplet loss)等公知的学习模型。在该情况下,以第一特征矢量φ1(t1)与第二特征矢量φ2(t2)的类似度越高则距离g(φ1(t1)、φ2(t2))越小的方式,学习在第一特征矢量计算部34-1、第二特征矢量计算部34-2以及距离计算部35中使用的神经网络的参数。另外,作为距离的计算方法,不限于使用神经网络的情况,也可以使用作为距离学习(MetricLearning)方法的一例的马氏距离学习。
自身位置估计部36将与由距离计算部35计算出的距离g(φ1(t1)、φ2(t21))~g(φ1(t1)、φ2(t2M))中的最小的距离对应的第二特征矢量φ2(t2)的部分区域W的预先决定的位置、例如中心位置估计为自身位置pt
这样,自身位置估计模型学习装置10在功能上可以说是对基于局部图像和俯瞰图像来估计并输出自身位置的自身位置估计模型进行学习的装置。
接着,对自身位置估计模型学习装置10的作用进行说明。
图7是表示自身位置估计模型学习装置10的自身位置估计模型学习处理的流程的流程图。CPU 11从存储装置14读出自身位置估计模型学习程序,在RAM 13中展开并执行,由此进行自身位置估计模型学习处理。
在步骤S100中,CPU 11作为取得部30从模拟器20取得目的地pg的位置信息。
在步骤S102中,CPU 11作为取得部30从模拟器20取得时间序列的N个局部图像I1(={I11、I12、…、I1N})。
在步骤S104中,CPU 11作为取得部30,从模拟器20取得与局部图像I1同步的时间序列的N个俯瞰图像I2(={I21、I22、…、I2N})。
在步骤S106中,CPU 11作为第一轨迹信息计算部33-1,根据局部图像I1计算第一轨迹信息t1
在步骤S108中,CPU 11作为第二轨迹信息计算部33-2,基于俯瞰图像I2来计算第二轨迹信息t2
在步骤S110中,CPU 11作为第一特征矢量计算部34-1,基于第一轨迹信息t1,计算第一特征矢量φ1(t1)。
在步骤S112中,CPU 11作为第二特征矢量计算部34-2,基于第二轨迹信息t2中的部分区域W1~WM的第二轨迹信息t21~t2M,计算第二特征矢量φ2(t21)~φ2(t2M)。
在步骤S114中,CPU 11作为距离计算部35,计算表示第一特征矢量φ1(t1)与各个第二特征矢量φ2(t21)~φ2(t2M)的类似度的距离g(φ1(t1)、φ2(t21))~g(φ1(t1)、φ2(t2M))。即,对每个部分区域W计算距离。
在步骤S116中,CPU 11作为自身位置估计部36,将与在步骤S114中计算出的距离g(φ1(t1)、φ2(t21))~g(φ1(t1)、φ2(t2M))中的最小距离对应的第二特征矢量φ2(t2)的部分区域W的代表位置、例如中心位置估计为自身位置pt,输出到模拟器20。
在步骤S118中,CPU 11作为学习部32,更新自身位置估计模型的参数。即,如果是使用孪生网络(Siamese Network)作为自身位置估计模型中包括的学习模型的情况,则更新孪生网络的参数。
在步骤S120中,CPU 11作为自身位置估计部36,对机器人RB是否到达了目的地pg进行判断。即,判定在步骤S116中估计出的机器人RB的位置pt是否与目的地pg一致。然后,在判定为机器人RB到达了目的地pg的情况下,转移到步骤S122。另一方面,在判定为机器人RB未到达目的地pg的情况下,转移到步骤S102,重复步骤S102~S120的处理直到判定为机器人RB到达目的地pg为止。即,对学习模型进行学习。另外,步骤S102、S104的处理是取得步骤的一例。另外,步骤S108~S118的处理是学习步骤的一例。
在步骤S122中,CPU 11作为自身位置估计部36,判定是否满足结束学习的结束条件。在本实施方式中,结束条件例如是将机器人RB从起始地点到达目的地pg为止作为一回,预先决定的数量(例如100)的回数结束的情况。CPU 11在判定为满足结束条件的情况下结束本例程。另一方面,在不满足结束条件的情况下,转移到步骤S100,改变目的地pg,反复进行步骤S100~S122的处理,直到满足结束条件。
这样,在本实施方式中,以时间序列取得在动态环境中以从机器人RB的视点拍摄到的局部图像、和从俯瞰机器人RB的位置拍摄到的与局部图像同步的俯瞰图像,对将以时间序列取得的局部图像和俯瞰图像作为输入而输出机器人RB的位置的自身位置估计模型进行学习。由此,即使在以往难以估计机器人RB的自身位置的动态环境中,也能够估计机器人RB的位置。
此外,也可能存在上述的步骤S116中计算出的最小的距离过大的情况,即不能进行自身位置的估计的情况。因此,也可以是,当在步骤S116中计算出的最小距离为预先决定的阈值以上时,判断为不能估计自身位置,从前次检测到的机器人RB的位置pt-1附近的局部区域L中重新选择部分区域W1~WM,再次执行步骤S112~S116的处理。
另外,作为不能进行自身位置的估计的情况的其他例子,存在不能计算轨迹信息的情况。例如是在机器人RB的周围完全不存在人HB而完全成为静态环境的情况等。在这样的情况下,也可以通过再次执行步骤S112~S116的处理来重新进行自身位置估计。
接下来,对利用由自身位置估计模型学习装置10进行学习后的自身位置估计模型来估计自身位置的机器人RB进行说明。
在图8中示出了机器人RB的概略结构。如图8所示,机器人RB具备自身位置估计装置40、照相机42、机器人信息取得部44、通知部46以及自主行驶部48。自身位置估计装置40具备取得部50以及控制部52。
照相机42在从开始地点移动到目的地pg为止的期间,以预先决定的间隔拍摄机器人RB的周围,将拍摄到的局部图像输出到自身位置估计装置40的取得部50。
取得部50通过无线通信向未图示的外部装置请求并取得从俯瞰机器人RB的位置拍摄到的俯瞰图像。
控制部52具有由自身位置估计模型学习装置10进行学习后的自身位置估计模型的功能。即,控制部52基于由取得部50取得的时间序列的同步的局部图像以及俯瞰图像,估计机器人RB的位置。
机器人信息取得部44取得机器人RB的速度作为机器人信息。机器人RB的速度例如使用速度传感器来取得。机器人信息取得部44将取得的机器人RB的速度输出至取得部50。
取得部50基于照相机42所拍摄的局部图像来取得人HB的状态。具体而言,使用公知的方法对拍摄图像进行分析,计算存在于机器人RB的周围的人HB的位置以及速度。
控制部52具有用于进行控制以使机器人RB自主行驶至目的地pg的学习完毕的机器人控制模型的功能。
机器人控制模型例如是将与机器人RB的状态有关的机器人信息、与机器人RB的周围环境有关的环境信息、以及与机器人RB应该到达的目的地有关的目的地信息作为输入,选择并输出与机器人RB的状态对应的行动的模型,例如使用通过强化学习而学习完毕的模型。在此,机器人信息包括机器人RB的位置及速度的信息。另外,环境信息包括与动态环境有关的信息,具体而言,例如包括存在于机器人RB的周围的人HB的位置及速度的信息。
控制部52将目的地信息、机器人RB的位置及速度、以及人HB的状态信息作为输入,选择与机器人RB的状态对应的行动,基于选择出的行动来控制通知部46以及自主行驶部48中的至少一方。
通知部46具有通过输出声音或输出警告音而将机器人RB的存在通知给周围的人HB的功能。
自主行驶部48具有轮胎以及驱动轮胎的马达等使机器人RB自主行驶的功能。
在所选择的行动是使机器人RB以所指定的方向及速度移动的行动的情况下,控制部52控制自主行驶部48使机器人RB以所指定的方向及速度移动。
另外,在所选择的行动是介入行动的情况下,控制部52对通知部46进行控制使得声音输出“请让路”等消息或者发出警告音。
接下来,对自身位置估计装置40的硬件结构进行说明。
如图9所示,自身位置估计装置40具有CPU(Central Processing Unit:中央处理单元)61、ROM(Read Only Memory:只读存储器)62、RAM(Random Access Memory:随机存取存储器)63、存储装置64以及通信接口65。各结构经由总线66以能够相互通信的方式连接。
在本实施方式中,在存储装置64中存储有自身位置估计程序。CPU 61是中央运算处理单元,执行各种程序或控制各结构。即,CPU 61从存储装置64读出程序,将RAM 63作为作业区域来执行程序。CPU 61按照存储装置64中记录的程序,进行上述各结构的控制和各种运算处理。
ROM 62存储各种程序和各种数据。RAM 63作为作业区域暂时存储程序或数据。存储装置64由HDD(Hard Disk Drive:硬盘驱动器)或SSD(Solid State Drive:固态驱动器)构成,保存包括操作系统在内的各种程序以及各种数据。
通信接口65是用于与其他设备进行通信的接口,例如使用以太网(注册商标)、FDDI或Wi-Fi(注册商标)等标准。
接下来,对自身位置估计装置40的作用进行说明。
图10是表示自身位置估计装置40的自身位置估计处理的流程的流程图。CPU 51从存储装置64读出自身位置估计程序,在RAM 63中展开并执行,由此进行自身位置估计处理。
在步骤S200中,CPU 61作为取得部50,从未图示的外部装置通过无线通信取得目的地pg的位置信息。
在步骤S202中,CPU 61作为取得部50从照相机42取得时间序列的N个局部图像I1(={I11、I12、…、I1N})。
在步骤S204中,CPU 61作为取得部50,向未图示的外部装置请求并取得与局部图像I1同步的时间序列的N个俯瞰图像I2(={I21、I22、…、I2N})。此时,将上次执行本例程而估计出的机器人RB的位置pt-1发送到外部装置,从外部装置取得包括上次估计出的机器人RB的位置pt-1的周边的俯瞰图像。
在步骤S206中,CPU 61作为控制部52,基于局部图像I1,计算第一轨迹信息t1
在步骤S208中,CPU 61作为控制部52,基于俯瞰图像I2,计算第二轨迹信息t2
在步骤S210中,CPU 61作为控制部52,基于第一轨迹信息t1,计算第一特征矢量φ1(t1)。
在步骤S212中,CPU 61作为控制部52,基于第二轨迹信息t2中的部分区域W1~WM的第二轨迹信息t21~t2M,计算第二特征矢量φ2(t21)~φ2(t2M)。
在步骤S214中,CPU 61作为控制部52,计算表示第一特征矢量φ1(t1)与各个第二特征矢量φ2(t21)~φ2(t2M)的类似度的距离g(φ1(t1)、φ2(t21))~g(φ1(t1)、φ2(t2M))。即,对每个部分区域W计算距离。
在步骤S216中,CPU 61作为控制部52,将与在步骤S214中计算出的距离g(φ1(t1)、φ2(t21))~g(φ1(t1)、φ2(t2M))中的最小距离对应的第二特征矢量φ2(t2)的部分区域W的代表位置、例如中心位置估计为自身位置pt
在步骤S218中,CPU 61作为取得部50,从机器人信息取得部44取得机器人的速度作为机器人RB的状态。另外,使用公知的方法对在步骤S202中取得的局部图像进行分析,计算与存在于机器人RB的周围的人HB的状态有关的状态信息、即人HB的位置及速度。
在步骤S220中,CPU 61作为控制部52,基于在步骤S200中取得的目的地信息、在步骤S216中估计出的机器人RB的位置、在步骤S218中取得的机器人RB的速度、以及在步骤S218中取得的人HB的状态信息,选择与机器人RB的状态对应的行动,基于选择出的行动来控制通知部46以及自主行驶部48中的至少一方。
在步骤S222中,CPU 61作为控制部52,判定机器人RB是否到达了目的地pg。即,判定机器人RB的位置pt是否与目的地pg一致。然后,在判定为机器人RB到达了目的地pg的情况下,结束本例程。另一方面,在判定为机器人RB未到达目的地pg的情况下,转移到步骤S202,重复步骤S202~S222的处理直到判定为机器人RB到达目的地pg为止。另外,步骤S202、S204的处理是取得步骤的一例。另外,步骤S206~S216的处理是估计步骤的一例。
这样,机器人RB一边基于由自身位置估计模型学习装置10进行学习后的自身位置估计模型来估计自身位置,一边自主行驶至目的地。
此外,在本实施方式中,对机器人RB具备自身位置估计装置40的情况进行了说明,但也可以将自身位置估计装置40的功能设置于外部服务器。在该情况下,机器人RB将由照相机42拍摄到的局部图像发送至外部服务器。外部服务器基于从机器人RB发送的局部图像以及从提供俯瞰图像的装置取得的俯瞰图像来估计机器人RB的位置,发送给机器人RB。然后,机器人RB基于从外部服务器接收到的自身位置来选择行动,自主行驶至目的地。
另外,在本实施方式中,说明了自身位置估计对象是自主行驶型的机器人RB的情况,但不限于此,自身位置估计对象也可以是人携带的便携终端装置。在该情况下,在便携终端装置中设置自身位置估计装置40的功能。
另外,也可以由CPU以外的各种处理器执行在上述各实施方式中CPU读入软件(程序)而执行的机器人控制处理。作为该情况下的处理器,例示FPGA(Field-ProgrammableGate Array:现场可编程门阵列)等在制造后能够变更电路结构的PLD(ProgrammableLogic Device:可编程逻辑器件)、以及ASIC(Application Specific IntegratedCircuit:专用集成电路)等具有为了执行特定的处理而专门设计的电路结构的处理器即专用电路等。另外,既可以通过这些各种处理器中的1个来执行自身位置估计模型学习处理以及自身位置估计处理,也可以通过同种或者不同种的2个以上的处理器的组合(例如,多个FPGA、以及CPU与FPGA的组合等)来执行自身位置估计模型学习处理以及自身位置估计处理。另外,更具体而言,这些各种处理器的硬件结构是组合了半导体元件等电路元件的电路。
另外,在上述各实施方式中,说明了将自身位置估计模型学习程序预先存储于存储装置14,将自身位置估计程序预先存储于存储装置64的方式,但并不限于此。程序也可以以记录于CD-ROM(Compact Disc Read Only Memory:只读光盘存储器)、DVD-ROM(DigitalVersatile Disc Read Only Memory:数字多功能光盘只读存储器)、以及USB(UniversalSerial Bus:通用串行总线)存储器等记录介质的方式提供。另外,程序也可以设为经由网络从外部装置下载的方式。
关于本说明书中记载的所有文献、专利申请以及技术标准,以各个文献、专利申请以及技术标准的参照取入成为与具体且分别记载的情况相同的程度的方式在本说明书中通过参照而取入。
标号说明
1:自身位置估计模型学习系统;10:自身位置估计模型学习装置;20:模拟器;30:取得部;32:学习部;33:轨迹信息计算部;34:特征矢量计算部;35:距离计算部;36:自身位置估计部;40:自身位置估计装置;42:照相机;44:机器人信息取得部;46:通知部;48:自主行驶部;50:取得部;52:控制部;HB:人;RB:机器人。

Claims (9)

1.一种自身位置估计模型学习方法,由计算机执行包括如下步骤的处理:
取得步骤,按时间序列取得局部图像和与所述局部图像同步的俯瞰图像,所述局部图像是在动态环境中从自身位置估计对象的视点拍摄到的局部图像,所述俯瞰图像是从俯瞰所述自身位置估计对象的位置拍摄到的俯瞰图像;以及
学习步骤,对自身位置估计模型进行学习,所述自身位置估计模型以按时间序列取得的所述局部图像以及所述俯瞰图像为输入而输出所述自身位置估计对象的位置。
2.根据权利要求1所述的自身位置估计模型学习方法,其中,
所述学习步骤包括:
轨迹信息计算步骤,基于所述局部图像计算第一轨迹信息,并且基于所述俯瞰图像计算第二轨迹信息;
特征量计算步骤,基于所述第一轨迹信息计算第一特征量,并且基于所述第二轨迹信息计算第二特征量;
距离计算步骤,计算所述第一特征量与所述第二特征量的距离;
估计步骤,基于所述距离估计所述自身位置估计对象的位置;以及
更新步骤,以所述第一特征量与所述第二特征量的类似度越高则距离越小的方式更新所述自身位置估计模型的参数。
3.根据权利要求2所述的自身位置估计模型学习方法,其中,
在所述特征量计算步骤中,基于从上次估计出的所述自身位置估计对象的位置附近的区域选择出的多个部分区域中的所述第二轨迹信息,计算所述第二特征量,
在所述距离计算步骤中,针对所述多个部分区域中的每个部分区域计算所述距离,
在所述估计步骤中,将针对所述多个部分区域中的每个部分区域计算出的所述距离中的距离最小的部分区域的预先决定的位置估计为所述自身位置估计对象的位置。
4.一种自身位置估计模型学习装置,其包括:
取得部,其按时间序列取得局部图像和与所述局部图像同步的俯瞰图像,所述局部图像是在动态环境中从自身位置估计对象的视点拍摄到的局部图像,所述俯瞰图像是从俯瞰所述自身位置估计对象的位置拍摄到的俯瞰图像;以及
学习部,其对自身位置估计模型进行学习,所述自身位置估计模型以按时间序列取得的所述局部图像以及所述俯瞰图像为输入而输出所述自身位置估计对象的位置。
5.一种自身位置估计模型学习程序,该自身位置估计模型学习程序用于使计算机执行包括如下步骤的处理:
取得步骤,按时间序列取得局部图像和与所述局部图像同步的俯瞰图像,所述局部图像是在动态环境中从自身位置估计对象的视点拍摄到的局部图像,所述俯瞰图像是从俯瞰所述自身位置估计对象的位置拍摄到的俯瞰图像;以及
学习步骤,对自身位置估计模型进行学习,所述自身位置估计模型以按时间序列取得的所述局部图像以及所述俯瞰图像为输入而输出所述自身位置估计对象的位置。
6.一种自身位置估计方法,由计算机执行包括如下步骤的处理:
取得步骤,按时间序列取得局部图像和与所述局部图像同步的俯瞰图像,所述局部图像是在动态环境中从自身位置估计对象的视点拍摄到的局部图像,所述俯瞰图像是从俯瞰所述自身位置估计对象的位置拍摄到的俯瞰图像;以及
估计步骤,基于按时间序列取得的所述局部图像和所述俯瞰图像、以及通过权利要求1~3中的任一项所述的自身位置估计模型学习方法进行学习后的自身位置估计模型,估计所述自身位置估计对象的自身位置。
7.一种自身位置估计装置,其包括:
取得部,其按时间序列取得局部图像和与所述局部图像同步的俯瞰图像,所述局部图像是在动态环境中从自身位置估计对象的视点拍摄到的局部图像,所述俯瞰图像是从俯瞰所述自身位置估计对象的位置拍摄到的俯瞰图像;以及
估计部,其基于按时间序列取得的所述局部图像和所述俯瞰图像、以及由权利要求4所述的自身位置估计模型学习装置进行学习后的自身位置估计模型,估计所述自身位置估计对象的自身位置。
8.一种自身位置估计程序,该自身位置估计程序用于使计算机执行包括如下步骤的处理:
取得步骤,按时间序列取得局部图像和与所述局部图像同步的俯瞰图像,所述局部图像是在动态环境中从自身位置估计对象的视点拍摄到的局部图像,所述俯瞰图像是从俯瞰所述自身位置估计对象的位置拍摄到的俯瞰图像;以及
估计步骤,基于按时间序列取得的所述局部图像和所述俯瞰图像、以及通过权利要求1~3中的任一项所述的自身位置估计模型学习方法进行学习后的自身位置估计模型,估计所述自身位置估计对象的自身位置。
9.一种机器人,其包括:
取得部,其按时间序列取得局部图像和与所述局部图像同步的俯瞰图像,所述局部图像是在动态环境中从机器人的视点拍摄到的局部图像,所述俯瞰图像是从俯瞰所述机器人的位置拍摄到的俯瞰图像;
估计部,其基于按时间序列取得的所述局部图像和所述俯瞰图像、以及由权利要求4所述的自身位置估计模型学习装置进行学习后的自身位置估计模型,估计所述机器人的自身位置;
自主行驶部,其使所述机器人自主行驶;以及
控制部,其基于由所述估计部估计出的位置,控制所述自主行驶部使所述机器人向目的地移动。
CN202080076842.9A 2019-11-13 2020-10-21 自身位置估计模型学习方法、自身位置估计模型学习装置、自身位置估计模型学习程序、自身位置估计方法、自身位置估计装置、自身位置估计程序以及机器人 Pending CN114698388A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019-205691 2019-11-13
JP2019205691A JP7322670B2 (ja) 2019-11-13 2019-11-13 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット
PCT/JP2020/039553 WO2021095463A1 (ja) 2019-11-13 2020-10-21 自己位置推定モデル学習方法、自己位置推定モデル学習装置、自己位置推定モデル学習プログラム、自己位置推定方法、自己位置推定装置、自己位置推定プログラム、及びロボット

Publications (1)

Publication Number Publication Date
CN114698388A true CN114698388A (zh) 2022-07-01

Family

ID=75898030

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080076842.9A Pending CN114698388A (zh) 2019-11-13 2020-10-21 自身位置估计模型学习方法、自身位置估计模型学习装置、自身位置估计模型学习程序、自身位置估计方法、自身位置估计装置、自身位置估计程序以及机器人

Country Status (5)

Country Link
US (1) US20220397903A1 (zh)
EP (1) EP4060445A4 (zh)
JP (1) JP7322670B2 (zh)
CN (1) CN114698388A (zh)
WO (1) WO2021095463A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7438510B2 (ja) 2021-10-29 2024-02-27 オムロン株式会社 俯瞰データ生成装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット
JP7438515B2 (ja) 2022-03-15 2024-02-27 オムロン株式会社 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005329515A (ja) 2004-05-21 2005-12-02 Hitachi Ltd サービスロボットシステム
JP4802112B2 (ja) 2007-02-08 2011-10-26 株式会社東芝 トラッキング方法及びトラッキング装置
JP6037608B2 (ja) 2011-11-29 2016-12-07 株式会社日立製作所 サービス制御システム、サービスシステム
DE102016101552A1 (de) 2016-01-28 2017-08-03 Vorwerk & Co. Interholding Gmbh Verfahren zum Erstellen einer Umgebungskarte für ein selbsttätig verfahrbares Bearbeitungsgerät
WO2018235219A1 (ja) 2017-06-22 2018-12-27 日本電気株式会社 自己位置推定方法、自己位置推定装置および自己位置推定プログラム
JP2019197350A (ja) * 2018-05-09 2019-11-14 株式会社日立製作所 自己位置推定システム、自律移動システム及び自己位置推定方法

Also Published As

Publication number Publication date
JP7322670B2 (ja) 2023-08-08
EP4060445A4 (en) 2023-12-20
EP4060445A1 (en) 2022-09-21
WO2021095463A1 (ja) 2021-05-20
JP2021077287A (ja) 2021-05-20
US20220397903A1 (en) 2022-12-15

Similar Documents

Publication Publication Date Title
US10748061B2 (en) Simultaneous localization and mapping with reinforcement learning
US10160448B2 (en) Object tracking using sensor fusion within a probabilistic framework
US9707961B1 (en) Tracking objects within a dynamic environment for improved localization
CN105974938B (zh) 避障方法、装置、载体及无人机
JP6804991B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
Wyffels et al. Negative information for occlusion reasoning in dynamic extended multiobject tracking
CN114698388A (zh) 自身位置估计模型学习方法、自身位置估计模型学习装置、自身位置估计模型学习程序、自身位置估计方法、自身位置估计装置、自身位置估计程序以及机器人
CN110470308B (zh) 一种避障系统及方法
CN114179832B (zh) 用于自动驾驶车辆的变道方法
US11741720B2 (en) System and method for tracking objects using using expanded bounding box factors
US20220397900A1 (en) Robot control model learning method, robot control model learning device, recording medium storing robot control model learning program, robot control method, robot control device, recording medium storing robot control program, and robot
JP2022523312A (ja) Vslam方法、コントローラ及び移動可能機器
KR20230036858A (ko) 3차원 포인트 클라우드 맵을 이용한 차선 레벨 지도 구축 방법 및 시스템
Mentasti et al. Two algorithms for vehicular obstacle detection in sparse pointcloud
JP7438515B2 (ja) 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット
JP7438510B2 (ja) 俯瞰データ生成装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット
WO2023176854A1 (ja) 俯瞰データ生成装置、学習装置、俯瞰データ生成プログラム、俯瞰データ生成方法、及びロボット
JP2008065562A (ja) 情報処理装置、および同定処理方法、並びにコンピュータ・プログラム
WO2023219058A1 (ja) 情報処理方法、情報処理装置及び情報処理システム
US20230128018A1 (en) Mobile body management device, mobile body management method, mobile body management computer program product, and mobile body management system
WO2023123325A1 (zh) 一种状态估计方法和装置
WO2023189721A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US20240177342A1 (en) Information processing device, information processing method, and storage medium
JP2024012160A (ja) 目標状態推定方法、装置、電子機器及び媒体
CN117707172A (zh) 自动驾驶车辆的决策方法及装置、车辆、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination