CN110462546A - 移动体 - Google Patents

移动体 Download PDF

Info

Publication number
CN110462546A
CN110462546A CN201880021381.8A CN201880021381A CN110462546A CN 110462546 A CN110462546 A CN 110462546A CN 201880021381 A CN201880021381 A CN 201880021381A CN 110462546 A CN110462546 A CN 110462546A
Authority
CN
China
Prior art keywords
target
moving body
region
agv
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201880021381.8A
Other languages
English (en)
Inventor
天羽光宏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nihon Kyosan Co Ltd
Original Assignee
Nihon Kyosan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon Kyosan Co Ltd filed Critical Nihon Kyosan Co Ltd
Publication of CN110462546A publication Critical patent/CN110462546A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Signal Processing (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

移动体(10)在存在多个传感设备的室内和/或室外与至少1台传感设备协作而追踪目标(2)。移动体具有传感器(15)、通信装置(14d)、处理器(14a)、以及保存有计算机程序的存储器(14b)。通过执行计算机程序,处理器对传感器的输出进行分析而计算目标的位置,在丢失了目标时,利用最后计算出的目标的位置或对丢失了目标后的传感器的输出进行分析而得到的位置以及丢失目标之前的目标或本机的移动历史来推断目标存在的区域(R),对根据区域而被选出的至少1台传感设备(20a、20b)指示捜索目标,并从该传感设备接收捜索的结果。

Description

移动体
技术领域
本公开涉及移动体。
背景技术
公知有移动体追踪人等对象的技术。移动体的一例是无人搬运车(AGV(AutomatedGuided Vehicle))等机器人。
当在移动体追踪对象的期间丢失了该对象的情况下,要求搜索、再次发现该对象而重新开始追踪。例如,在日本特开2005-199377号公报和日本特开2006-344075号公报中,公开了以下技术:在多个传感器或机器人之间始终进行通信,共享传感器信息、各机器人的位置信息等以再次发现对象。在日本特开2016-119626号公报中,公开了以下技术:通常使用地上的监视照相机来追踪对象,但在丢失了对象的情况下,使搭载有照相机的飞行装置进行飞行,根据由照相机拍摄到的图像来检测该对象。并且,扬长辉等人,“使用了多个活动的照相机的对指定人物的实时追踪”(大阪大学研究生院工学研究科)公开了以下技术:设置多个照相机,在丢失了对象的情况下,在照相机之间进行信息交换来预测对象存在的区域。
现有技术文献
专利文献
专利文献1:日本特开2005-199377号公报
专利文献2:日本特开2006-344075号公报
专利文献3:日本特开2016-119626号公报
非专利文献
非专利文献1:扬长辉等人,“使用了多个活动的照相机的对指定人物的实时追踪”,大阪大学研究生院工学研究科
发明内容
发明要解决的课题
在上述的技术中,在丢失了追踪的对象的情况下,需要在移动体之间或者照相机之间始终进行通信,因此通信负载以及通过通信而取得的信息的处理负载增加。特别是,在上述的日本特开2006-344075号公报的技术以及“使用了多个活动的照相机的对指定人物的实时追踪”的技术中,照相机或传感器的协作台数增加得越多,对系统施加的负载越大。这可能会导致处理跟不上。
在导入飞行装置的情况下,除了需要导入成本之外,在飞行装置无法飞行的场所,无法再次发现对象。
假设在工厂使AGV追踪人等,出于使用与其他设备共用的基础设施的原因,要求设计、开发能够预计上述的通信负载和处理负载的增加的系统。用于导入以及维护、管理的成本可能会增加。
本公开的实施方式提供了能够降低通信、处理和/或机材购买的成本的移动体以及包含该移动体的移动体系统。
用于解决课题的手段
根据本发明的例示的实施方式,移动体在存在多个传感设备的室内和/或室外与多个所述传感设备中的至少1台协作而追踪目标,其中,所述移动体具有:传感器,其感测所述目标;通信装置;处理器;以及存储器,其保存有计算机程序,所述处理器通过执行所述计算机程序而进行以下内容:对所述传感器的输出进行分析而计算所述目标的位置,在丢失了所述目标时,利用最后计算出的所述目标的位置或对丢失所述目标后的所述传感器的输出进行分析而得到的位置、以及丢失所述目标之前的所述目标或本机的移动历史来推断所述目标存在的区域,经由所述通信装置对根据所述区域而被选出的至少1台所述传感设备指示捜索所述目标,经由所述通信装置接收所述传感设备的所述捜索的结果。
发明效果
根据本公开的实施方式,在丢失了作为追踪对象的目标的情况下,移动体向其他传感设备发送搜索请求,使用一部分的传感设备来搜索丢失的目标。通过与其他传感设备协作地跟踪目标,能够抑制通信负载和处理负载。另外,由于不需要导入用于搜索丢失的目标的专用的飞行装置等,因此能够削减购买这样的机材等所需的成本。
附图说明
图1是示出追踪在通道1中行走的人2的AGV 10的图。
图2是本公开的例示的AGV 10的外观图。
图3是示出AGV 10的硬件的结构的图。
图4是示出搜索范围R、AGV 10以及其他AGV 20a~20c的各位置的关系的图。
图5是示出作为目标的人2的移动方向D的图。
图6是示出考虑了人2的移动方向D而决定的可拍摄区域S的部分区域Sp的图。
图7是示出例示的实施方式的丢失了在通道1中移动的人2的AGV 10、搜索区域R以及部分区域Sp的一例的图。
图8A是示出微型计算机14a的处理的过程的流程图。
图8B是示出微型计算机14a的处理的过程的流程图。
图9是示出接收到搜索请求的传感设备的微型计算机的处理过程的流程图。
具体实施方式
以下,参照附图对本公开的移动体的一例进行说明。在本说明书中,作为移动体的一例,举出了无人搬运车。如上所述,无人搬运车也被称为AGV,在本说明书中也记述为“AGV”。另外,AGV具有搬运物品的功能并不是必须的。不搬运任何东西的可移动机器人(mobile robot)也属于本说明书的AGV的范畴。另外,在本说明书中,例示了具有四个车轮的台车型的AGV,但车轮的数量和形状是任意的。AGV例如也可以是具有两个车轮的摩托车型,也可以是具有三个以上车轮的圆形形状。
图1示出了追踪在通道1中行走的人2的AGV 10。AGV 10追踪人2的目的例如是搬运人2的货物、或者是对被判断为可疑人员的人2进行监视。
AGV 10分别对内置的多个马达进行驱动,使车轮旋转而移动。AGV 10具有后述的深度相机。AGV 10在使人2进入到深度相机的视野F中的同时测量从AGV 10到人2的距离。另外,AGV 10根据该距离以及由深度相机取得的人2的图像来运算人2的位置、行进方向以及移动速度,而追踪人2。
AGV 10具有人2的特征量以识别图像中的人2。特征量例如是表示图像上的人2的轮廓(边缘)的多个特征点、人2的服装的颜色、基于与人2的身体的各部位的距离的三维形状。
在通道1中设置有多个照相机3a和3b。在图1中,照相机3a和3b固定设置于通道1的顶棚,但也可以设置于壁面。具有与AGV 10相同的结构和功能的未图示的其他AGV也在通道1中行驶。搭载于该其他AGV的照相机与固定设置的照相机不同,能够作为可动式的照相机而进行动作。
图2是本实施方式的例示的AGV 10的外观图。另外,图3示出了AGV 10的硬件的结构。
AGV 10具有框架12、搬运台13、行驶控制装置14、深度相机15以及四个车轮11a~11d。另外,在图5中示出了前轮11a、后轮11b以及后轮11c,由于前轮11d被框架12遮住,因此未明示。
行驶控制装置14是对AGV 10的动作进行控制的装置。行驶控制装置14主要具有包含微型计算机(后述)的多个集成电路、多个电子部件、以及搭载有该多个集成电路和该多个电子部件的基板。
深度相机15除了具有拍摄动态图像和/或静态图像的一般功能之外,还具有测量与物体的距离(深度)的功能。深度相机15具有未图示的图像传感器,能够通过由图像传感器接收视野F的光而取得静态图像。按照规定的时间间隔连续取得的静态图像的集合是动态图像。由于取得动态图像和静态图像的技术是公知的,因此省略进一步的详细说明。以下,将动态图像和静态图像统称为“图像”。能够由深度相机15检测出的物体的例子是人、货物、架子、墙壁。
深度相机15例如通过TOF(Time Of Flight:飞行时间)方式来测量深度。TOF方式是根据光在深度相机15与物体之间往复的时间来测量从深度相机15到物体的距离的方式。TOF方式的深度相机15例如放射脉冲状红外光,使用传感器来接收被物体反射后的该红外光。深度相机15检测所放射的红外光的相位与接收到的反射光的相位之差(相位差),将该相位差转换为时间差,进而运算该时间差与光速之积。运算结果表示深度相机15与物体的往复距离。由此,深度相机15能够实时地测量从照相机到物体的单程距离。由于深度相机15的构造和动作原理是公知的,因此在本说明书中省略了进一步的详细说明。
根据AGV 10的位置和姿势以及由深度相机15取得的图像,AGV 10可以得到本机周围的物体的配置。通常,移动体的位置和姿势被称为姿态(pose)。移动体在二维面内的位置和姿势是用XY正交坐标系中的位置坐标(x,y)和相对于X轴的角度θ来表现的。以下,有时将AGV 10的位置和姿势、即姿态(x,y,θ)简称为“位置”。
后述的测位装置能够通过将局部地图数据(根据使用深度相机15取得的图像和距离的数据而生成)与更大范围的环境地图数据进行对照(匹配)而识别环境地图上的自身位置(x,y,θ)。预先准备“更大范围的环境地图数据”,并作为地图数据保存于存储装置14c中。
深度相机15是用于感测周围空间而取得传感器数据的外界传感器的一例。激光测距仪和超声传感器也是这样的外界传感器的一例。在本实施方式中,深度相机15仅是用于测量从AGV 10到人2的距离的装置的一例。也可以使用双目式相机来代替深度相机15。
AGV 10能够通过组合上述的各种传感器而进行动作。例如,AGV 10可以使用激光测距仪来扫描周围的空间,测量周围的物体的存在以及与该物体的距离。另外,AGV 10也可以使用不取得进深信息的照相机来取得图像。AGV 10能够将从激光测距仪输出的数据与从照相机输出的图像数据组合来推断自身位置。AGV 10也可以具有另外的深度相机15以追踪后述的“目标”。或者,只要使用从激光测距仪输出的距离的信息和从照相机输出的图像数据,也能够省略深度相机15和双目式相机。在本说明书中,有时将外界传感器称为“传感设备”,将从外界传感器输出的数据称为“传感器数据”。
另外,在图1和图2中,视野F被描绘为与AGV 10所行驶的地面平行,应当注意的是,视野F实际上也在与地面垂直的方向上扩展。
从深度相机15输出的“传感器数据”包含图像和距离的数据。能够按照图像的每个像素而测量距离。与人2的距离例如能够以形成图像中的人2的像的各像素的距离的平均值的方式来求取。
参照图3。在图3中也示出了AGV 10的行驶控制装置14的具体结构。
AGV 10具有行驶控制装置14、深度相机15、驱动装置17以及两台马达16a和16b。
行驶控制装置14具有微型计算机14a、存储器14b、存储装置14c、通信电路14d以及测位装置14e。微型计算机14a、存储器14b、存储装置14c、通信电路14d以及测位装置14e通过通信总线14f而连接,能够相互收发数据。另外,深度相机15也经由通信接口(未图示)与通信总线14f连接,将作为测量结果的测量数据发送给微型计算机14a、测位装置14e和/或存储器14b。
微型计算机14a是进行用于控制包含行驶控制装置14的AGV 10整体的运算的处理器或控制电路(计算机)。典型地,微型计算机14a是半导体集成电路。微型计算机14a向驱动装置17发送PWM(Pulse Width Modulation:脉冲宽度调制)信号而对驱动装置17进行控制使其调整在马达中流动的电流。由此,马达16a和16b分别以期望的转速进行旋转。
存储器14b是存储由微型计算机14a执行的计算机程序的易失性的存储装置。存储器14b也能够被用作微型计算机14a和测位装置14e进行运算时的工作存储器。
存储装置14c是存储地图数据的非易失性的半导体存储器装置。但是,存储装置14c也可以是以硬盘为代表的磁记录介质、或者以光盘为代表的光学式记录介质。并且,存储装置14c也可以包含用于相对于任何记录介质进行写入和/或读取的头装置以及该头装置的控制装置。
通信电路14d例如是进行基于“蓝牙”(注册商标)和/或Wi-Fi(注册商标)标准的无线通信的无线通信电路。任何标准均包含使用了2.4GHz频段的频率的无线通信标准。
测位装置14e从深度相机15接收传感器数据,并且读取存储于存储装置14c中的地图数据。测位装置14e能够进行对照传感器数据和地图数据而识别自身位置的处理。测位装置14e的具体动作在后文描述。
另外,在本实施方式中,微型计算机14a和测位装置14e是单独的构成要素,但这仅是一个例子。也可以是能够独立地进行微型计算机14a和测位装置14e的各动作的一个芯片电路或半导体集成电路。在图3中示出了包括微型计算机14a和测位装置14e的芯片电路14g。在本说明书中,有时将微型计算机14a、测位装置14e和/或芯片电路14g称为计算机或处理电路。另外,以下,以微型计算机14a和测位装置14e分别独立地设置的例子进行说明。
两台马达16a和16b分别安装于两个车轮11b和11c而使各车轮旋转。
驱动装置17具有用于调整分别在两台马达16a和16b中流动的电流的马达驱动电路17a和17b。马达驱动电路17a和17b分别是所谓的逆变电路,根据从微型计算机14a发送的PWM信号而使在各马达中流动的电流接通或断开,由此调整在马达中流动的电流。
由管理人员或行驶管理装置(未图示)指示AGV 10追踪人2。在本实施方式中,对在追踪人2的期间AGV 10丢失了人2时的AGV 10的动作进行说明,同时对存在于AGV 10的周围的其他AGV或照相机的动作进行说明。
在以下的说明中,简称为“照相机”时是指在AGV 10所行驶的室内和/或室外固定设置的照相机。另一方面,将搭载于其他AGV的照相机表达为“其他AGV的照相机”等。另外,照相机以及其他AGV的照相机均是“传感设备”的一例。
另外,将追踪的对象称为“目标”。在本实施方式中,目标是人2。但是,只要是动物、其他AGV等能够移动的物体,都能够是目标。
在本说明书中,“丢失”目标主要包含两个含义。一个含义是指在所取得的图像上不再存在目标的像的情况。另一个含义是指由于在所取得的图像上存在包含目标的像在内的多个像而导致微型计算机14a无法将目标的候选决定为一个的情况。
在丢失了目标时,AGV 10的微型计算机14a决定包含被推断为目标存在的位置的区域(搜索区域)。微型计算机14a利用通信电路14d向根据该搜索区域而选择的至少一台其他AGV或照相机指示搜索目标。接收到指示的其他AGV等感测周围的空间而搜索目标,并将搜索的结果发送给AGV 10。微型计算机14a接收搜索的结果,在结果表示目标存在的情况下,使本机移动至目标所存在的位置,从该位置重新开始目标的追踪。另一方面,在搜索的结果表示目标不存在的情况下,微型计算机14a变更搜索区域,再次进行上述的动作。
在以下的说明中,对由微型计算机14a决定搜索区域的处理、根据搜索区域而选择至少一台其他AGV或照相机的处理、以及目标的搜索处理进行说明。
图4示出了搜索范围R、AGV 10以及其他AGV 20a~20c的各位置的关系。另外,能够将“其他AGV 20a~20c”的一部分或全部置换为“照相机”。为了便于说明,假设各AGV 20a~20c的结构与AGV 10相同。因此,各AGV 20a~20c具有深度相机15。
AGV 20a~20c的各深度相机具有视野Fa~Fc。各视野Fa~Fc的进深例如为1m~5m。进深比较短是因为考虑了从深度相机放射的红外光的到达范围以及用于识别所拍摄的图像中的目标的像的分辨率。另外,视野的进深不限于用整数值来表示,也可以用小数值来表示。
在图4中,用符号“+”来表示作为目标的人2的位置。AGV 10根据从深度相机15取得的图像、与该图像中的人2的距离、以及AGV 10的姿势而识别人2的位置直至到达符号“+”的位置。假设当前AGV 10在符号“+”的位置丢失了人2。
能够假设在丢失了人2的时刻,目标移动的速度与进行追踪的AGV 10移动的速度V相等。AGV 10例如能够利用马达16a和16b的转速以及车轮的半径值而求取速度V。在AGV 10具有速度计的情况下,AGV 10也可以利用该速度计的输出值而取得速度V。
或者,AGV 10也可以根据深度相机15所拍摄的多张图像以及距离的变化量来求取目标移动的速度。AGV 10也可以对在丢失人2之前所拍摄的多张图像进行分析,利用拍摄时刻之差和能够根据图像和/或距离而确定的位置的变化量来求取人2移动的速度。但是,在AGV 10正在行驶的情况下,需要考虑AGV 10移动的速度。
由上述的说明可知,在AGV 10丢失了人2的情况下,AGV 10利用作为在丢失人2之前所取得的AGV 10或目标的移动历史的、到目前为止移动的速度的信息。
将丢失目标之后的经过时间设为T。被推断为目标在丢失目标之后所移动的距离、即推断移动距离LR是通过LR=V·T而获得的。即,目标能够移动的范围被推断为位于图4的以符号“+”的位置为中心的半径LR的圆内。AGV 10将该圆内的区域设定为“搜索区域R”。
能够取得搜索区域R的图像的AGV是其他AGV 20a~20c中的存在于图4所示的可拍摄区域S内的AGV。可拍摄区域S设定得比搜索区域R大。例如,可拍摄区域S能够被规定为以符号“+”的位置为中心的半径Ls(>LR)的圆。半径之差(Ls-LR)相当于其他AGV的深度相机的视野的进深。存在于可拍摄区域S内的其他AGV能够使用深度相机来拍摄搜索区域R的至少一部分。在本实施方式中,其他AGV的深度相机不是必须具有能够拍摄整个搜索区域R的性能。
另外,即使存在于可拍摄区域S内,由于其他AGV的深度相机的视野不是朝向搜索区域R的方向,因此有可能存在实际上无法拍摄搜索区域R的情况。但是,在本实施方式中,追踪目标的AGV 10对存在于可拍摄区域S内的其他AGV指示搜索区域R的搜索。另外,如后所述,也向其他AGV发送确定搜索区域R的数据,因此其他AGV通过根据需要移动而能够拍摄搜索区域R。
在图4所示的例子中,根据推断出的搜索区域R而选择其他AGV 20a和20b。AGV 20a和20b感测搜索区域R而搜索目标。另一方面,位于可拍摄区域S的外部的AGV 20c没有被选为对搜索区域R内的目标进行搜索的AGV。
AGV 10经由通信电路14d发送搜索请求。在本实施方式中,搜索请求被发送给所有其他AGV和照相机。此时,AGV 10也在搜索请求中添加用于确定搜索区域R和可拍摄区域S的区域数据。区域数据是丢失了人2的位置的坐标、半径LR和Ls的值的组合。“坐标”能够用在AGV 10所行驶的空间中预先设定的“绝对坐标”来指定。
接收到搜索请求和区域数据的各AGV和照相机判定自身的位置是否位于可拍摄区域S内。
在AGV的情况下,在该判定用的处理中,AGV 10只要利用上述的测位装置14e即可。接收到搜索请求的各AGV从自身的深度相机接收图像数据,并且读取存储于存储装置14c中的地图数据。测位装置14e能够进行对照图像数据和地图数据而识别自身位置的处理。各AGV的微型计算机只要判定识别出的自身位置是否包含于上述的可拍摄区域S内即可。另外,例如也可以利用LiDAR等传感器、陀螺仪、轮式编码器等以识别自身位置。
另一方面,由于照相机是固定设置的,因此能够使其预先存储位置的信息。各照相机的微型计算机只要判定自身的位置是否包含于上述的可拍摄区域S内即可。
通过上述的处理,当推断出搜索区域R时,可拍摄区域S被决定,进而可拍摄区域S内的其他AGV 20a和20b被选出。该其他AGV 20a和20b拍摄由丢失了人2的位置的坐标和用半径LR所示的搜索区域R,判定在图像内是否存在目标,并将搜索结果发送给AGV 10。
在判定图像内是否存在目标时,AGV 10只要预先向AGV 20a和20b发送作为目标的人2的特征数据即可。特征数据表示用于供AGV 10识别图像中的人2的特征量。发送的时机是任意的。例如,各AGV 20a和20b在判定为自身的位置包含于上述的可拍摄区域S内时,通知给AGV 10。AGV 10只要响应该通知的接收而发送特征数据即可。
该其他AGV 20a和20b分别进行图像处理,判定在所取得的图像内是否与特征数据完全匹配。另外,“匹配”也包含在所取得的图像内存在以规定以上的比例、例如60%以上的比例与特征数据匹配的像的情况。
根据上述的处理,在丢失了目标时进行通信而发送搜索请求,因此能够将通信负载抑制得较低。另外,由于能够通过比较简单的运算而决定搜索区域R和可拍摄区域S,因此微型计算机的运算负载足够低。并且,由于使用直接根据可拍摄区域S而选择的、或者间接根据搜索区域R而选择的传感设备进行搜索,因此也不会始终使用所有的传感设备。由此,在每次搜索时也不会浪费地使用整体资源。并且,由于也不需要为了上述处理而导入新的设备,因此也不需要例如日本特开2016-119626号公报所记载的飞行装置那样的设备的导入成本。
接下来,对用于进一步缩小搜索区域R的处理进行说明。
图5示出了作为目标的人2的移动方向D。微型计算机14a能够使用在丢失人2之前由深度相机15取得的多张图像来确定移动方向D。例如,微型计算机14a检测在丢失人2紧前所取得的2张图像中的人2的像的“变化”。如果人2的像的位置在从左向右横贯图像的方向上发生变化,则推断为人2朝向右方向。另一方面,在人2的像的“变化”没有在横贯图像的方向上发生的情况下,推断为人2直线前进或者停止。
人2的移动方向能够成为用于有效地限定在丢失人2之后搜索人2的区域的有力的线索。微型计算机14a进一步考虑人2的移动方向而限定可拍摄区域S。
图6示出了考虑了人2的移动方向D而决定的可拍摄区域S的部分区域Sp。微型计算机14a将可拍摄区域S中的包含人2的移动方向D的具有一定的宽度的区域决定为部分区域Sp。
微型计算机14a生成确定部分区域Sp的数据作为区域数据。区域数据例如是丢失人2的位置的坐标和半径Ls的值、以及包含移动方向D的规定的角度范围的组合。接收到搜索请求和区域数据的各AGV和照相机能够判定自身的位置是否位于部分区域Sp内。
根据上述的处理,AGV 20a在本机的深度相机能够拍摄的范围内拍摄搜索区域R,判定在图像内是否存在目标。然后,AGV 20a将搜索结果发送给AGV 10。
另一方面,由于其他AGV 20b不存在于部分区域Sp内,因此不会作为用于搜索人2的AGV而进行动作。
另外,即使在存在于部分区域Sp内的其他AGV 20a的搜索结果表示目标不存在的情况下,微型计算机14a也可以变更部分区域Sp,发送新的搜索请求和区域数据。变更的结果是,能够由与AGV 20a不同的AGV或照相机进行新的搜索。其结果为,对搜索区域R内的另一部分进行了搜索。
通过决定被认为人2存在的可能性更高的部分区域Sp,并使部分区域Sp内的其他AGV和/或照相机搜索人2,从而能够进一步限定进行搜索的AGV和/或照相机的范围。由此,实现了传感设备的更有效的利用。
在上述的说明中,为了容易理解本发明人员发现的处理,举出了搜索区域R和可拍摄区域S是以丢失人2的位置为中心的圆的例子。接下来,对图6的更具体的例子进行说明。
图7示出了例示的实施方式的丢失了在通道1中移动的人2的AGV 10、搜索区域R以及部分区域Sp的一例。各标号和符号与以上的例子相同。
丢失了人2的AGV 10的微型计算机14a根据丢失之前人2移动的速度而决定搜索区域R。搜索区域R能够被定义为由双点划线和通道1的墙壁所包围的区域。并且,微型计算机14a考虑人2的移动方向D而决定部分区域Sp。部分区域Sp能够被定义为由虚线和通道1的墙壁所包围的区域。
微型计算机14a经由通信电路14d将确定部分区域Sp的区域数据与人2的搜索请求一同发送给其他AGV和照相机。另外,如上所述,部分区域Sp也可以通过丢失人2的位置的坐标和半径Ls的值、以及包含移动方向D的规定的角度范围的组合而确定,也可以通过在通道1中预先设定的分区(区域)而确定。
接收到搜索请求和区域数据的其他AGV和照相机按照上述的方法来判定本机是否位于部分区域Sp内。在图7的例子中,AGV 20d和照相机20e分别判定为本机位于部分区域Sp内,从而对搜索区域R进行感测、搜索目标。另一方面,位于部分区域Sp的外部的照相机20f不对搜索区域R内的目标进行搜索。
由上述的例示的实施方式的说明可知,能够根据AGV 10行驶的通道1等而适当地设定搜索区域R、可拍摄区域S以及部分区域Sp。
接下来,参照图8A和图8B对进行上述处理的AGV 10的微型计算机14a的动作进行说明。
图8A和图8B是示出微型计算机14a的处理的过程的流程图。
在步骤S10中,微型计算机14a对从作为传感器的深度相机15输出的图像和距离的数据进行分析,计算目标的位置。
在步骤S11中,微型计算机14a判定是否丢失了目标。在未丢失目标的情况下,处理前进到步骤S12,在丢失了目标的情况下,处理前进到步骤S13。
在步骤S12中,微型计算机14a向驱动装置17输出PWM信号,使本机朝向计算出的位置行驶。
在步骤S13中,微型计算机14a利用最后计算得到的目标的位置以及丢失目标之前的目标或自身装置的移动历史来推断包含目标的当前位置的搜索区域R。
在步骤S14中,微型计算机14a经由通信电路14d输出目标的搜索请求和区域数据。由此,根据推断出的搜索区域R以及可拍摄区域S或部分区域Sp,其他AGV或照相机被选出。
在步骤S15中,微型计算机14a向被选出的其他AGV或照相机发送目标的特征数据。由此,微型计算机14a能够使被选出的其他AGV或照相机判定是否存在具有与特征数据匹配的特征的物体。
处理接续图8B的A。
在步骤S16中,微型计算机14a接收从其他AGV或照相机发送的搜索结果。
在步骤S17中,微型计算机14a参照搜索结果而判定是否发现了目标。在搜索结果表示目标不存在时,处理前进到步骤S18,在表示目标存在时,处理前进到步骤S19。
在步骤S18中,微型计算机14a变更搜索区域R以及可拍摄区域S或部分区域Sp。搜索区域R的变更是伴随着丢失人2之后的经过时间的增加而需要的变更。可拍摄区域S或部分区域Sp的变更是伴随新选择不同的可拍摄区域S或部分区域Sp的变更。然后,处理返回到图8A的“B”,再次进行步骤S14及之后的处理。
在步骤S19中,微型计算机14a使本机移动至发现目标的位置,从该位置重新开始跟踪目标。另外,由于在使本机移动至发现目标的位置的期间也存在目标移动的可能性,因此可以使其他AGV或照相机继续进行目标的搜索。
接下来,参照图9对搭载于接收到搜索请求的其他AGV的微型计算机或照相机(传感设备)的微型计算机的处理进行说明。
图9是示出接收到搜索请求的传感设备的微型计算机的处理的过程的流程图。假设该传感设备是AGV。该AGV具有图3所示的硬件。因此,在以下的说明中,看作具有图3所示的结构的AGV的处理进行说明。
在步骤S31中,微型计算机14a经由通信电路14d接收搜索请求和区域数据。
在步骤S32中,微型计算机14a判定自身位置是否位于可拍摄区域S内。在判定的结果是判定为自身位置位于可拍摄区域S内的情况下,处理前进到步骤S33,在判定为位于可拍摄区域S外的情况下,处理结束。另外,在作为区域数据而包含有确定部分区域Sp的数据的情况下,只要判定自身位置是否位于部分区域Sp内即可。
在步骤S33中,微型计算机14a利用搭载的深度相机15进行拍摄。然后,在步骤S34中,微型计算机14a判定在拍摄到的图像内是否存在与特征数据匹配的像。
在步骤S35中,微型计算机14a经由通信电路14d将目标的存在以及本机的位置信息作为搜索结果而发送给发送搜索请求的AGV 10。
以上,对本公开的例示的实施方式进行了说明。
在上述的说明中,丢失的目标的推断移动距离是以目标或AGV 10的移动速度与丢失之后的经过时间之积的方式而求出的。但是,也可以不直接使用运算的结果,而使用例如将所得到的推断移动距离按照1m单位、5m单位或10m单位向上进位后的近似值来决定搜索区域R、可拍摄区域S或可拍摄区域S。
在上述的说明中,接收到搜索请求的其他AGV或照相机判定在图像中是否存在具有与人2匹配的特征数据的像。通过由其他AGV或照相机而不是AGV 10进行判定,能够分散AGV 10的处理负载。
但是,也可以不是由其他AGV或照相机进行判定,而是由AGV 10的微型计算机14a进行判定。在该情况下,其他AGV或照相机将拍摄到的图像的数据发送给AGV10。AGV 10的微型计算机14a从存在于可拍摄区域S或部分区域Sp内的所有的AGV或照相机接收图像的数据,因此处理负载暂时增加。然而,由于其他AGV或照相机仅是拍摄并发送图像的数据即可,因此能够将自身的计算机资源分配给自身的处理。
产业上的可利用性
本公开能够广泛地用于具有追踪目标的功能的移动体。
标号说明
2:人(追踪对象、目标);3a、3b:照相机;10:自动搬运车(AGV);14:行驶控制装置;14a:微型计算机;14b:存储器;14c:存储装置;14d:通信电路;14e:测位装置;15:深度相机;16a、16b:马达;17:驱动装置;17a、17b:马达驱动电路。

Claims (19)

1.一种移动体,其在存在多个传感设备的室内和/或室外与多个所述传感设备中的至少1台协作而追踪目标,其中,
所述移动体具有:
传感器,其感测所述目标;
通信装置;
处理器;以及
存储器,其保存有计算机程序,
所述处理器通过执行所述计算机程序而进行以下内容:
对所述传感器的输出进行分析而计算所述目标的位置,
在丢失了所述目标时,利用最后计算出的所述目标的位置或对丢失所述目标后的所述传感器的输出进行分析而得到的位置、以及丢失所述目标之前的所述目标或本机的移动历史来推断所述目标存在的区域,
经由所述通信装置对根据所述区域而被选出的至少1台所述传感设备指示捜索所述目标,
经由所述通信装置接收所述传感设备的所述捜索的结果。
2.根据权利要求1所述的移动体,其中,
多个所述传感设备分别设置于所述室内和/或所述室外、或者安装于其他移动体。
3.根据权利要求2所述的移动体,其中,
多个所述传感设备分别内置于在所述室内和/或所述室外固定设置的照相机中、或者搭载于所述其他移动体,
所述处理器经由所述照相机或所述其他移动体对所述传感设备指示捜索所述目标,从所述照相机或所述其他移动体接收所述传感设备的所述捜索的结果。
4.根据权利要求3所述的移动体,其中,
所述移动体还具有存储装置,该存储装置存储表示所述目标的特征的特征数据,
所述处理器还经由所述通信装置发送所述特征数据,从所述照相机或所述其他移动体接收参照所述特征数据而进行的所述捜索的结果。
5.根据权利要求4所述的移动体,其中,
所述捜索的结果包含检测到的所述目标的位置的数据、或者检测到所述目标的所述照相机或所述其他移动体的位置的数据。
6.根据权利要求3所述的移动体,其中,
所述移动体还具有存储装置,该存储装置存储表示所述目标的特征的特征数据,
所述捜索的结果包含通过所述照相机或所述其他移动体感测周围的空间而取得的传感器数据、以及所述照相机或所述其他移动体的位置的数据,
所述处理器将所述特征数据与所述传感器数据进行对照。
7.根据权利要求1至6中的任意一项所述的移动体,其中,
所述处理器利用最后计算出的所述目标的位置以及丢失所述目标时的所述目标或所述本机的速度来推断所述区域。
8.根据权利要求7所述的移动体,其中,
所述处理器还利用丢失所述目标之后的经过时间来推断所述区域。
9.根据权利要求8所述的移动体,其中,
所述处理器计算根据所述目标或所述本机的移动历史而推断出的所述目标的移动速度与所述经过时间之积作为推断移动距离,将从最后计算出的所述目标的位置起所述推断移动距离以内的范围推断为所述区域。
10.根据权利要求4至6中的任意一项所述的移动体,其中,
所述处理器利用对丢失所述目标后的所述照相机的输出进行分析而得到的位置以及丢失所述目标之前的所述目标或本机的移动历史来推断所述目标存在的区域。
11.根据权利要求1至6中的任意一项所述的移动体,其中,
所述处理器利用丢失所述目标之前的所述目标或所述本机的位置的变化来推断所述区域。
12.根据权利要求11所述的移动体,其中,
所述处理器根据丢失所述目标之前的所述目标或所述本机的位置的变化来推断所述目标的移动方向,将包含所述移动方向的规定的范围推断为所述区域。
13.根据权利要求3至6中的任意一项所述的移动体,其中,
所述处理器还经由所述通信装置发送指定所述区域的区域数据,
所述照相机或所述其他移动体根据指定的所述区域与自身位置的关系而进行所述目标的捜索,
所述处理器经由所述通信装置接收所述捜索的结果。
14.根据权利要求1至13中的任意一项所述的移动体,其中,
所述移动体还具有存储装置,该存储装置保存所述室内和/或室外的地图数据,
所述处理器还利用所述地图数据来推断所述目标存在的区域。
15.根据权利要求1至14中的任意一项所述的移动体,其中,
在所述传感设备的所述捜索的结果表示所述目标不存在的情况下,所述处理器变更所述区域。
16.根据权利要求1至14中的任意一项所述的移动体,其中,
在所述传感设备的所述捜索的结果表示所述目标存在的情况下,所述处理器使本机移动至所述目标存在的位置,从所述位置重新开始追踪所述目标。
17.一种移动体,其具有:
通信装置,其与追踪目标的其他移动体进行通信;
传感器,其能够感测所述目标;
处理器;以及
存储器,其保存有计算机程序,
所述处理器通过执行所述计算机程序而进行以下内容:
经由所述通信装置从所述其他移动体接收要求捜索指定的区域的指示,
根据所述指定的区域与自身位置的关系,使用所述传感器对周围的空间进行感测而进行所述捜索,
将所述捜索的结果发送给所述其他移动体。
18.根据权利要求17所述的移动体,其中,
所述处理器进行以下内容:
还经由所述通信装置接收表示所述目标的特征的特征数据,
判定对所述周围的空间进行感测而得到的传感器数据与所述特征数据是否匹配,
在匹配的情况下,发送表示所述目标的位置的数据和表示所述自身位置的数据中的至少一方作为所述捜索的结果。
19.根据权利要求1至18中的任意一项所述的移动体,其中,
所述通信装置使用2.4GHz频段的频率进行通信。
CN201880021381.8A 2017-03-28 2018-03-13 移动体 Withdrawn CN110462546A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017-063176 2017-03-28
JP2017063176 2017-03-28
PCT/JP2018/009676 WO2018180454A1 (ja) 2017-03-28 2018-03-13 移動体

Publications (1)

Publication Number Publication Date
CN110462546A true CN110462546A (zh) 2019-11-15

Family

ID=63675401

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880021381.8A Withdrawn CN110462546A (zh) 2017-03-28 2018-03-13 移动体

Country Status (4)

Country Link
US (1) US11256917B2 (zh)
JP (1) JPWO2018180454A1 (zh)
CN (1) CN110462546A (zh)
WO (1) WO2018180454A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7353747B2 (ja) * 2018-01-12 2023-10-02 キヤノン株式会社 情報処理装置、システム、方法、およびプログラム
WO2020050328A1 (ja) * 2018-09-05 2020-03-12 日本電気株式会社 移動体追跡システム、移動体追跡方法及びプログラム
JP7196711B2 (ja) * 2019-03-22 2022-12-27 株式会社豊田自動織機 移動車両
WO2022208668A1 (ja) * 2021-03-30 2022-10-06 日本電気株式会社 情報処理装置、情報処理方法、情報処理システム、及びコンピュータ可読媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60210784A (ja) * 1984-04-04 1985-10-23 Hitachi Ltd 推定目標存在領域表示方法
CN104778358A (zh) * 2015-04-09 2015-07-15 西安工程大学 多传感器存在监测区域部分重叠的扩展目标跟踪方法
CN105447887A (zh) * 2015-11-06 2016-03-30 掌赢信息科技(上海)有限公司 一种基于历史轨迹的目标跟踪方法及电子设备
JP2016119626A (ja) * 2014-12-22 2016-06-30 セコム株式会社 監視システム
WO2017047688A1 (ja) * 2015-09-17 2017-03-23 株式会社日立国際電気 落下物検知追跡システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003096054A2 (en) 2002-05-10 2003-11-20 Honda Giken Kogyo Kabushiki Kaisha Real-time target tracking of an unpredictable target amid unknown obstacles
JP2005199377A (ja) 2004-01-14 2005-07-28 Sharp Corp 追跡ロボットシステムおよびそれを用いた追跡ロボット
JP4257230B2 (ja) * 2004-02-26 2009-04-22 株式会社東芝 移動ロボット
JP4792823B2 (ja) * 2005-06-09 2011-10-12 ソニー株式会社 ネットワーク・システム、移動体装置及びその制御方法、並びにコンピュータ・プログラム
JP4352083B2 (ja) * 2007-07-12 2009-10-28 株式会社東芝 ロボット制御装置及び方法
JP4413957B2 (ja) 2007-08-24 2010-02-10 株式会社東芝 移動物体検出装置および自律移動物体
JP5674406B2 (ja) * 2010-09-30 2015-02-25 綜合警備保障株式会社 自律移動体を用いた監視システム、監視装置、自律移動体、監視方法、及び監視プログラム
US20120316680A1 (en) * 2011-06-13 2012-12-13 Microsoft Corporation Tracking and following of moving objects by a mobile robot
US9367067B2 (en) * 2013-03-15 2016-06-14 Ashley A Gilmore Digital tethering for tracking with autonomous aerial robot
EP3480798B1 (en) * 2016-07-04 2021-01-06 Sony Corporation Robot, robot system, and recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60210784A (ja) * 1984-04-04 1985-10-23 Hitachi Ltd 推定目標存在領域表示方法
JP2016119626A (ja) * 2014-12-22 2016-06-30 セコム株式会社 監視システム
CN104778358A (zh) * 2015-04-09 2015-07-15 西安工程大学 多传感器存在监测区域部分重叠的扩展目标跟踪方法
WO2017047688A1 (ja) * 2015-09-17 2017-03-23 株式会社日立国際電気 落下物検知追跡システム
CN105447887A (zh) * 2015-11-06 2016-03-30 掌赢信息科技(上海)有限公司 一种基于历史轨迹的目标跟踪方法及电子设备

Also Published As

Publication number Publication date
US20200380699A1 (en) 2020-12-03
WO2018180454A1 (ja) 2018-10-04
US11256917B2 (en) 2022-02-22
JPWO2018180454A1 (ja) 2020-02-06

Similar Documents

Publication Publication Date Title
US20210279444A1 (en) Systems and methods for depth map sampling
CN105652891B (zh) 一种旋翼无人机移动目标自主跟踪装置及其控制方法
CN105841687B (zh) 室内定位方法和系统
US9329598B2 (en) Simultaneous localization and mapping for a mobile robot
Mustafah et al. Indoor UAV positioning using stereo vision sensor
CN110462546A (zh) 移动体
TWI827649B (zh) 用於vslam比例估計的設備、系統和方法
TW201934460A (zh) 主動補充針對自主導航的曝光設置
WO2019001237A1 (zh) 一种移动电子设备以及该移动电子设备中的方法
CN113116224A (zh) 机器人及其控制方法
WO2018228258A1 (zh) 一种移动电子设备以及该移动电子设备中的方法
Tsukiyama Global navigation system with RFID tags
CN111380535A (zh) 基于视觉标签的导航方法、装置、移动式机器及可读介质
Noaman et al. Landmarks exploration algorithm for mobile robot indoor localization using VISION sensor
McFall Using visual lane detection to control steering in a self-driving vehicle
US20210149412A1 (en) Position estimating apparatus, method for determining position of movable apparatus, and non-transitory computer readable medium
Karakaya et al. A hybrid indoor localization system based on infra-red imaging and odometry
CN115273015A (zh) 一种预测方法、装置、智能驾驶系统和车辆
WO2019202878A1 (en) Recording medium, information processing apparatus, and information processing method
Szendy et al. Simultaneous localization and mapping with TurtleBotII
US11662740B2 (en) Position estimating apparatus, method for determining position of movable apparatus, and non-transitory computer readable medium
Mendes et al. Stereo-based autonomous navigation and obstacle Avoidance
Wu et al. Developing a dynamic obstacle avoidance system for autonomous mobile robots using Bayesian optimization and object tracking: Implementation and testing
CN114763992A (zh) 建立地图的方法、定位方法、装置、自移动设备和介质
Hashimoto et al. Cooperative pedestrian tracking by multiple mobile robots with laser range scanners

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20191115

WW01 Invention patent application withdrawn after publication