CN108274464A - 自主移动机器人 - Google Patents

自主移动机器人 Download PDF

Info

Publication number
CN108274464A
CN108274464A CN201711078520.4A CN201711078520A CN108274464A CN 108274464 A CN108274464 A CN 108274464A CN 201711078520 A CN201711078520 A CN 201711078520A CN 108274464 A CN108274464 A CN 108274464A
Authority
CN
China
Prior art keywords
destination
mobile robot
autonomous mobile
people
forming apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711078520.4A
Other languages
English (en)
Inventor
樱井康晴
坪田浩和
山本训稔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of CN108274464A publication Critical patent/CN108274464A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Business, Economics & Management (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)

Abstract

自主移动机器人。一种自主移动机器人包括机器人主体、移动单元、检测器和控制器。移动单元使机器人主体移动到目的地点。检测器检测目的地点附近存在的人的状态。控制器控制移动单元,以便使自主移动机器人沿着根据由检测器检测到的人的状态而不同的行进路线接近目的地点附近存在的人。

Description

自主移动机器人
技术领域
本发明涉及自主移动机器人。
背景技术
日本特开第2004-209562号公报公开了一种在参照关于环境的信息的同时自主移动的移动机器人。该移动机器人包括:检测机器人的当前位置和当前姿势的单元;确定机器人到达的目标位置和在目标点要采取的目标姿势的单元;以及将当前位置和当前姿势与目标位置和目标姿势进行比较以便设置行进路线的单元。设置行进路线的单元设置路线,使得从机器人的特定点朝向目标点延伸的方位轴与沿机器人的行进方向的方位轴之间的角度不超过预定值。
当前,装配有传感器和微型计算机的机器人读取关于其周围的信息,并且不仅在特殊环境(诸如工厂或建筑工地)还在人们通常活动的生活空间中自主移动。可能存在这种机器人接近用户附近的情况。在这种情况下,如果机器人直线行进并且刚好在用户的前面突然停下,则用户可能感到不舒服或受惊吓。
发明内容
因此,本发明的目的是提供一种自主移动机器人,与自主移动机器人直线行进到目的地点的情况相比,该自主移动机器人使存在于目的地点附近的人感觉没那么不舒服或受惊吓。
根据本发明的第一方面,提供了一种包括机器人主体、移动单元、检测器和控制器的自主移动机器人。所述移动单元使所述机器人主体移动到目的地点。所述检测器检测所述目的地点附近存在的人的状态。所述控制器控制所述移动单元,以便使所述自主移动机器人沿着根据由所述检测器检测到的所述人的状态而不同的行进路线接近所述目的地点附近存在的人。
根据本发明的第二方面,在自主移动机器人中,所述检测器包括评估单元,其从所述目的地点附近存在的人的视线评估视野;并且所述控制器控制所述移动单元,以便使所述自主移动机器人根据由所述检测器检测到的人的状态,以所述自主移动机器人可能进入由所述评估单元评估的视野中的角度、以所述自主移动机器人不可能进入所述视野中的角度、或以所述自主移动机器人几乎走出所述视野的角度接近所述目的地点附近存在的人。
根据本发明的第三方面,在自主移动机器人中,所述控制器控制所述移动单元,以便使所述自主移动机器人根据时间段以所述自主移动机器人可能进入由所述评估单元评估的所述视野中的角度、以所述自主移动机器人不可能进入所述视野中的角度、或以所述自主移动机器人几乎走出所述视野的角度接近所述目的地点附近存在的人。
根据本发明的第四方面,在自主移动机器人中,所述控制器控制所述移动单元,以便在所述自主移动机器人在由所述评估单元评估的所述视野内的情况下,使所述自主移动机器人以所述自主移动机器人不可能进入所述视野中的角度、或以所述自主移动机器人几乎走出所述视野的角度接近所述目的地点附近存在的人。
根据本发明的第五方面,在自主移动机器人中,所述控制器控制所述移动单元,以便使所述自主移动机器人沿着一路线移动,直到所述自主移动机器人接近离所述目的地点预设距离的点为止,所述路线是检测到的从起点到所述目的地点的短路线,并且当所述自主移动机器人接近离所述目的地点所述预设距离的点时,甚至在不存在障碍物的情况下,也使所述自主移动机器人沿着除了最短路线之外的路线移动。
根据本发明的第六方面,在自主移动机器人中,所述控制器控制所述移动单元,以便在所述自主移动机器人接近离所述目的地点所述预设距离的点时,使所述自主移动机器人在所述目的地点附近以与所述目的地点附近存在的人的脸面向的方向的预定角度或更大角度接近所述目的地点附近存在的人,所述方向由所述检测器检测。
根据本发明的第七方面,在自主移动机器人中,所述检测器包括评估单元,其从所述目的地点附近存在的人的视线评估视野;并且所述控制器控制所述移动单元,以便当所述自主移动机器人接近离所述目的地点预设距离的点时,使所述自主移动机器人以使所述自主移动机器人移动到临时目标点并从所述临时目标点移动到被重置为目标点的目的地点的方式,接近所述目的地点附近存在的人,所述临时目标点是设置在所述目的地点附近、位于由所述评估单元评估的所述目的地点附近存在的所述人的视野的左侧或右侧并且远离所述视野的点。
根据本发明的第八方面,在自主移动机器人中,所述控制器控制所述移动单元,以便根据由所述检测器检测到的人的状态控制接近速度的同时使所述自主移动机器人接近所述目的地点附近存在的人。
根据本发明的第一方面,可以提供一种自主移动机器人,与自主移动机器人直线行进到目的地点的情况相比,该自主移动机器人使存在于目的地点附近的人感觉没那么不舒服或受惊吓。
根据本发明的第二方面,可以提供一种自主移动机器人,与自主移动机器人直线行进到目的地点的情况相比,该自主移动机器人使存在于目的地点附近的人感觉没那么不舒服或受惊吓。
根据本发明的第三方面,可以提供这样一种自主移动机器人:其在使用与目的地点附近存在的人的状态对应的接近方法的同时,能够接近目的地点,所述状态根据时间段而不同。
根据本发明的第四方面,可以提供一种自主移动机器人,与自主移动机器人直线行进到目的地点的情况相比,该自主移动机器人使存在于目的地点附近的人感觉没那么不舒服或受惊吓。
根据本发明的第五方面,可以提供一种自主移动机器人,与自主移动机器人直线行进到目的地点的情况相比,该自主移动机器人使存在于目的地点附近的人感觉没那么不舒服或受惊吓。
根据本发明的第六方面,可以提供一种自主移动机器人,与自主移动机器人直线行进到目的地点的情况相比,该自主移动机器人使存在于目的地点附近的人感觉没那么不舒服或受惊吓。
根据本发明的第七方面,可以提供一种自主移动机器人,与自主移动机器人直线行进到目的地点的情况相比,该自主移动机器人使存在于目的地点附近的人感觉没那么不舒服或受惊吓。
根据本发明的第八方面,可以提供这样一种自主移动机器人:其在使用根据目的地点附近存在的人的状态的不同接近方法的同时,能够接近目的地点。
附图说明
将基于以下附图详细描述本发明的示例性实施方式,附图中:
图1是例示了根据本发明的示例性实施方式的图像形成系统的系统构造的示图;
图2是例示了根据本发明的示例性实施方式的服务器的硬件构造的框图;
图3是例示了根据本发明的示例性实施方式的图像形成设备的硬件构造的框图;
图4是例示了根据本发明的示例性实施方式的图像形成设备的功能构造的框图;
图5是应用于本发明的示例性实施方式的办公室的平面图;
图6是例示了根据本发明的示例性实施方式的服务器的控制流程的流程图;
图7是用于描述应用于本发明的示例性实施方式的路线搜索的示图;
图8是例示了根据本发明的示例性实施方式的图像形成设备的示例性操作的示图;
图9是例示了根据本发明的示例性实施方式的图像形成设备的示例性操作的示图;
图10是例示了根据本发明的示例性实施方式的图像形成设备的示例性操作的示图;
图11是例示了根据本发明的示例性实施方式的图像形成设备的示例性操作的示图;
图12是例示了根据本发明的示例性实施方式的图像形成设备的示例性操作的示图;
图13是例示了根据本发明的示例性实施方式的图像形成设备的示例性操作的示图;
图14是例示了根据本发明的示例性实施方式的图像形成设备的示例性操作的示图;
图15是例示了根据本发明的示例性实施方式的图像形成设备的示例性操作的示图;以及
图16A和图16B是例示了根据本发明的示例性实施方式的图像形成设备的示例性操作的示图。
具体实施方式
现在,将参照附图详细描述本发明的示例性实施方式。在该示例性实施方式中,移动图像形成设备被用作自主移动机器人的示例,并且给出描述。
图1是例示了使用根据本发明的示例性实施方式的移动图像形成设备的图像形成系统1的构造的示图。
在根据本发明的示例性实施方式的图像形成系统1中,四个个人计算机(PC)10a至10d、服务器12和无线局域网(LAN)终端14例如在网络16上彼此连接。作为自主移动机器人的图像形成设备18被构造为向/从无线LAN终端14发送/接收打印数据等。图像形成系统1具有原位置20,在原位置处设置商用电源和太阳能光伏发电功能,并且图像形成设备18被构造为在原位置20处处于待机。
PC 10a至10d中的每一个被构造为向服务器12发送由其用户创建的打印数据。
图2是例示了服务器12的硬件配置的框图。
如图2例示,服务器12包括中央处理单元(CPU)22、存储器24、数据库26和网络接口28,它们经由控制总线30彼此连接。
CPU 22根据存储器24中存储的控制程序来执行预定处理,以控制服务器12的操作。
存储器24存储控制程序和下面描述的打印数据。
数据库26存储安装有PC 10a至10d的安装地点(诸如办公室)的地图和安装有PC10a至10d的安装位置。
在该示例性实施方式中,服务器12在为有线网络的网络16上连接到PC 10a至10d;然而,服务器12可以在无线LAN上连接到PC 10a至10d。另选地,服务器12可以被实现为云服务器,并且在因特网上连接到PC 10a至10d。
如图1例示,图像形成设备18是自推进设备,并且包括作为机器人主体的主体32、无线通信单元34、作为检测器的传感器35、以及作为移动单元的移动装置36。
主体32是执行图像形成的单元,并且在纸张上打印经由无线通信单元34接收的打印数据。
传感器35检测周围的状况以及路线上存在的障碍物和人。进一步地,检测器35检测目的地点附近存在的人的状态。使用例如相机、红外线传感器或超声传感器作为传感器35。
移动装置36响应于从服务器12给出的移动指令,使主体32移动到目的地点。使用例如车轮或支腿作为移动装置36。驱动源(诸如例如马达、致动器、引擎或液压泵)连接到车轮或支腿。
图3是例示了图像形成设备18的硬件构造的框图。
如图3例示,图像形成设备18包括作为控制器的CPU 40、存储器42、输入单元44、存储装置45、无线通信单元34、图像形成单元46、移动装置36和传感器35,它们经由控制总线48彼此连接。
CPU 40根据存储器42中存储的控制程序来执行预定处理。
输入单元44接收诸如用户ID和用户密码的输入信息。输入单元44包括ID输入单元,用户ID从例如IC卡输入到该ID输入单元。
无线通信单元34经由无线链路向/从无线LAN终端14发送/接收数据。
存储装置45存储用于控制图像形成设备18的各个单元的控制程序,并且还存储安装有PC 10a至10d的诸如办公室的安装地点的地图和安装PC 10a至10d的安装位置。
图像形成单元46是执行图像形成的单元,并且在纸张上打印经由无线通信单元34接收的打印数据。
移动装置36被构造为响应于经由无线通信单元34由CPU 40接收的、来自上述服务器12的移动指令,根据移动指令被控制。
传感器35检测图像形成设备18的当前位置。传感器35检测周围的状况以及路线上存在的障碍物和人。进一步地,检测器35检测目的地点附近存在的人的状态。
CPU 40控制移动装置36,以便使图像形成设备18沿着根据由传感器35检测到的目的地点附近存在的人的状态而不同的行进路线接近目的地点附近存在的人。
图4是例示了当执行程序时实现的图像形成设备18的功能构造的框图。
在图像形成设备18中,无线通信单元34发送和接收数据,并且CPU 40执行存储装置45中存储的控制程序。因此,如图4例示,图像形成设备18充当自我位置检测单元50、障碍物检测单元51、人识别单元52、脸识别单元53、视线识别单元54、评估单元55、路线确定单元56和移动控制器57,并控制移动装置36。
自我位置检测单元50获得由传感器35检测到的关于图像形成设备18的当前位置的信息。具体地,物体识别处理通过使用从相机获得的图像来执行,或者在三维中分析从红外线激光器获得的关于到障碍物的距离的信息,从而创建周围障碍物的地图并检测图像形成设备18的位置。
障碍物检测单元51从传感器35获取关于直到目的地点的周围的信息,以检测障碍物。
人识别单元52通过使用传感器35来识别目的地点附近存在的人。
脸识别单元53识别由人识别单元52识别的人的脸。
视线识别单元54识别由脸识别单元53识别的脸的眼睛的视线。
评估单元55从由视线识别单元54识别的视线评估人的视野。这里,视野是可视范围,并且公知的是,人单眼视野向上延伸大约60度,向下延伸大约70度,并且横向延伸大约90度至100度。通过同时使用两只眼可视的范围延伸至大约120度。
进一步地,评估单元55基于由人识别单元52、脸识别单元53、视线识别单元54等获得的信息和由障碍物检测单元51检测到的关于障碍物的信息来推断目的地点附近存在的人的状态。
具体地,评估单元55从由传感器35获得的图像提取目的地点附近存在的人,并且推断目的地点附近存在的人的状态。即,基于关于由人识别单元52、脸识别单元53和视线识别单元54识别的人的轮廓、脸、视线等的信息,可以推断人正在做什么。具体地,例如,可以获取关于人的信息,即,人正在站立还是坐着、人朝向哪个方向、人是否正在向下看且工作、或者人是否面对面对话。如果存在多个人,则可以推断各个人存在于目的地点的哪侧上,如何定位人,人是否彼此面对,人是否并排定位,或者人是否面向不同方向。
评估单元55从通过传感器35检测周围的状态而获得的图像来识别障碍物和人,并且识别目的地点附近存在的障碍物和人的位置。评估单元55从人的轮廓推断人正在做什么。
路线确定单元56基于从服务器12接收的行进路线和从传感器35获取的信息,确定要走的行进路线。具体地,路线确定单元56基于由自我位置检测单元50检测到的关于图像形成设备18的当前位置的信息、由障碍物检测单元51检测到的关于障碍物的信息、由人识别单元52、脸识别单元53和视线识别单元54识别的且由评估单元55推断的目的地点附近存在的人的状态、以及行进路线信息、办公室58的地图(参见图5)、和关于例如从服务器12接收的PC 10a的安装位置的信息,确定直到目的地点的行进路线。
移动控制器57执行用于沿着由路线确定单元56确定的行进路线的移动的控制。具体地,移动控制器57根据目的地点附近存在的人的状态,控制接近的路线和速度。移动控制器57根据由视线识别单元54检测到的目的地点附近存在的人是否正在看图像形成设备18,来控制接近的路线和速度。
图5是安装有图像形成设备18的办公室58的平面图。
办公室58被分成多个区域,即,例如,会议区域60、办公区域62a至62d和接待区域64。在区域60至64中的每一个中,设置多个PC 10。在办公室58中,安装保管库(depository)66,其中存储诸如纸张、色调剂等的物品。保管库66中存储的纸张等可以被装载到多个图像形成设备18中,即,例如,两个图像形成设备18。保管库66的安装位置可以被设置为图像形成设备18的原位置20。进一步地,监视器68被安装在办公室58中。
图6是例示了服务器12的控制流程的流程图。图7是用于描述使图像形成设备18在办公室58中从作为起点的原位置20移动到作为目的地点的PC 10a的用户的桌子的路线搜索的示图。
首先,在步骤S10中,服务器12从例如多个PC 10a至10d中的一个接收打印数据。打印数据包括打印作业、PC 10a至10d中的一个的用户的用户ID、以及关于打印设置的信息(彩色或单色、纸张的类型和尺寸、双面或单面、打印的图像质量、多页打印(例如,二合一)、后处理的类型等)。在存在多段打印数据的情况下,打印作业被放入打印作业队列中并且以接收打印作业的顺序被存储在存储器24中。
接着,在步骤S12中,服务器12基于PC 10a至10d中的一个的用户的用户ID,将已经发送了打印作业的PC 10a至10d中的一个识别为目的地点。然后,服务器12基于数据库26中存储的办公室58的地图和关于PC 10a至10d的安装位置的信息,搜索从图像形成设备18所位于的起点到目的地点的行进路线,并且基于所积累的数据选择具有最少交通量和最短长度的路线,作为行进路线。具体地,找到如图7例示的路线1至3,并且具有最少交通量和最短长度的路线2例如被选为行进路线。
随后,在步骤S14中,服务器12向图像形成设备18逐个输出用于指示图像形成设备18沿着所选行进路线2移动的移动指令。
随后,在步骤S16中,服务器12向图像形成设备18发送要在对应位置处打印的打印作业。
在完成所发送的打印作业的输出的情况下,在步骤S18中,服务器12确定打印作业是否是最后一个。如果打印作业不是最后一个(步骤S18中为否),则流程返回到步骤S14,并且服务器12逐个输出用于指示图像形成设备18从作为起点的当前位置移动到要打印下一个打印作业的位置(目的地点)的移动指令。在步骤S18中,如果确定打印作业是最后一个(步骤S18中为是),则流程进行到步骤S20,服务器12指示图像形成设备18返回到原位置20,并且处理结束。
图8至图10例示了在例如图像形成设备18从起点0移动到目的地点A(即,为人的用户100的桌子)并且传感器35检测到用户100在目的地点A附近存在的情况下的图像形成设备18的操作。
首先,当传感器35检测到目的地点A附近存在用户100时,图像形成设备18基于最短路线与用户100之间的位置关系来确定路线。然后,图像形成设备18沿着从服务器12接收的行进路线(其是最短路线)移动,直到图像形成设备18接近离目的地点预设距离的点为止。当图像形成设备18接近离目的地点预设距离的点时,图像形成设备18甚至在没有障碍物的情况下,也沿着除了最短路线之外的路线移动,而不是沿着最短路线行进,并且在减小接近速度的同时接近目的地点A。
除了最短路线之外的路线的示例包括离相距目的地点大约预设距离的点比最短路线长预定长度的迂回路线、以及从离目的地点大约预设距离的点以预定角度或更大角度从用户100的脸面向的方向延伸到目的地点的路线,该方向由传感器35检测。
在用户100的脸和视线通过使用传感器35来识别并且图像形成设备18在由评估单元55评估的视野内的情况下,图像形成设备18基于最短路线与用户100之间的位置关系来确定路线。具体地,如图8例示,图像形成设备18沿着从服务器12接收的行进路线(其是最短路线)移动,直到图像形成设备18接近离目的地点A预设距离的点为止。当图像形成设备18接近作为离目的地点A预设距离的点时,图像形成设备18朝向用户100的视野的右侧或左侧的端部沿着弯曲路线行进,而不沿着行进路线直线行进,并且从用户100的视野的前面侧向或斜对地(即,以图像形成设备18不可能进入用户100的视野中的角度)接近目的地点A,同时减小接近速度。在到达目的地点A之后,图像形成设备18在该点旋转,以便面向便于用户100的方向,并且响应于输入到输入单元44中的信息(诸如用户ID和密码)的接收,输出打印作业。在返回的路上,图像形成设备18沿着弯曲路线行进直到离目的地点A预设距离的点,而不是沿着与去目的地点A的路相同的路线折回。从离目的地点A预设距离的点,图像形成设备18沿着从服务器12接收的行进路线(其是最短路线)返回到原始位置,同时增大速度。因此,可以允许图像形成设备18接近目的地点A,而不使目的地点A附近存在的用户100感到不适或受到惊吓,并降低接触的风险。进一步地,走这种平滑的弯曲路线提供复杂方式,类似于例如出租车走饭店大堂前面的路线或游艇到达码头和从码头离开的方式。
进一步地,如图9例示,图像形成设备18沿着从服务器12接收的行进路线(其是最短路线)移动,直到图像形成设备18接近离目的地点A预设距离的点为止。当图像形成设备18接近离目的地点A预设距离的点时,图像形成设备18朝向用户100的视野的右侧或左侧的端部沿着弯曲路线行进,而不沿着行进路线直线行进,并且从用户100的视野的前面侧向或斜对地(即,以图像形成设备18几乎走出用户100的视野的角度)接近目的地点A,同时减小接近速度。在到达目的地点A之后,图像形成设备18在该点旋转,以便面向便于用户100的方向,并且响应于接收到输入到输入单元44中的信息(诸如用户ID和密码),输出打印作业。在返回的路上,图像形成设备18走弯曲路线直到离目的地点A预设距离的点,而不是沿着与去目的地点A的路相同的路线折回。从离目的地点A预设距离的点,图像形成设备18沿着从服务器12接收的行进路线(其是最短路线)返回到原始位置,同时增大速度。
进一步地,如图10例示,图像形成设备18沿着从服务器12接收的行进路线(其是最短路线)移动,直到图像形成设备18接近离目的地点A预设距离的点为止。当接近离目的地点A预设距离的点时,图像形成设备18通过使用例如传感器35来识别人的脸。在图像形成设备18未能识别视野的情况下,图像形成设备18从用户100的脸面向的方向以预定角度α或更大角度接近目的地点A,而不沿着行进路线直线行进,同时减小接近速度。在到达目的地点A之后,图像形成设备18在该点旋转,以便面向便于用户100的方向,并且响应于接收到输入到输入单元44中的信息(诸如用户ID和密码),输出打印作业。在返回的路上,图像形成设备18走弯曲路线直到离目的地点A预设距离的点,而不是沿着与去目的地点A的路相同的路线折回。从离目的地点A预设距离的点,图像形成设备18沿着从服务器12接收的行进路线(其是最短路线)返回到原始位置,同时增大速度。
这里,“图像形成设备18不太可能进入视野的角度”指的是视野之外的角度,并且例如,大于120度等,120度是人双眼视野的外侧角。进一步地,“图像形成设备18几乎走出视野的角度”指的是视野内的角度,即,在视野内且靠近视野的外侧,并且例如,小于且接近120度等,120度是人双眼视野的外侧角。
在用户100的脸和视线通过使用传感器35来识别并且图像形成设备18不在由评估单元55评估的用户100的视野内的情况下,基于最短路线与用户100之间的位置关系来确定路线。这里,在起点、目的地点和用户未对准的情况下,选择不迂回的路线。具体地,如图11例示,图像形成设备18沿着从服务器12接收的行进路线(其是最短路线)移动,直到图像形成设备18接近离目的地点A预设距离的点为止。当图像形成设备18接近离目的地点A预设距离的点并且进入用户100的视野时,图像形成设备18朝向更接近用户100的视野的端部沿着弯曲路线行进,而不沿着行进路线直线行进,并且从用户100的视野的前面侧向或斜对地(即,以图像形成设备18几乎走出用户100的视野的角度)接近目的地点A,同时减小接近速度。在到达目的地点A之后,图像形成设备18在该点旋转,以便面向便于用户100的方向,并且响应于接收到输入到输入单元44中的信息(诸如用户ID和密码),输出打印作业。在返回的路上,图像形成设备18走弯曲路线直到离目的地点A预设距离的点,而不是沿着与去目的地点A的路相同的路线折回。从离目的地点A预设距离的点,图像形成设备18沿着从服务器12接收的行进路线(其是最短路线)返回到原始位置,同时增大速度。
在上述示例性实施方式中,描述这样的构造:在返回路上,图像形成设备18走弯曲路线,而不沿着与去目的地点A相同的路线折回,并且从离目的地点A预设距离的点,沿着最短路线返回到原始位置。然而,本发明的示例性实施方式不限于此。在返回路上,图像形成设备18可以沿着与去目的地点A的路相同的路线返回到原始位置,或者在输出打印作业之后,可以沿着最短路线返回到原始位置,而不走弯曲路线。
图12是例示了在当图像形成设备18从起点0移动到目的地点A时,传感器35检测到目的地点A附近存在用户100的情况下的根据第一修改例的图像形成设备18的操作的示图,如下描述。
如图12例示,在用户100的脸和视线通过使用传感器35来识别并且图像形成设备18在由评估单元55评估的视野内的情况下,图像形成设备18在离目的地点A足够远离(例如,5m或更多)的区域中,沿着从服务器12接收的行进路线(其是最短路线)移动。当图像形成设备18接近离目的地点A预设距离(例如,5m等)的点时,图像形成设备18将目的地点A附近的位于目的地点A的左边或右边并且例如远离目的地点A大约2m的点设置为临时目标点A1。这里,执行关于位于目的地点的左边或右边的点是否被设置为临时目标点的确定,使得目的地点附近的障碍物由传感器35检测,并且沿不存在障碍物的方向上的点被设置为临时目标点A1。然后,图像形成设备18沿着到临时目标点A1的最短路线移动到例如远离目的地点A大约2m的点。当图像形成设备18接近远离目的地点A大约2m的点时,图像形成设备18将目标点从临时目标点A1重置为目的地点A。此时,图像形成设备18将目标点设置为目的地点A,同时以减小的接近速度在沿着视野的边缘的弯曲路线上移动。当图像形成设备18接近预设区域(例如其远离目的地点A大约1.5m)时,图像形成设备18沿着到目的地点A的最短路线移动,并且以图像形成设备18几乎走出用户100的视野的角度(即,以与在图像形成设备18从起点0直线接近目的地点A附近存在的用户100的情况下所走的路线大约45度的角度),沿着用户100的对角线方向接近用户100。
在行进路线上检测到障碍物的情况下,通过将临时目标点A1与目的地点A之间的距离减小到例如大约50cm或者通过增大图像形成设备18在移动的同时将目标点从临时目标点A1改变至目的地点A的距离来调节行进路线。
图13是例示了在当图像形成设备18从起点0移动到目的地点A并且图像形成设备18在用户100的视野内时,传感器35检测到目的地点A附近存在用户100的情况下的根据第二修改例的图像形成设备18的操作的示图,如下所述。在第二修改例中,描述了目的地点A附近不存在障碍物的情况下所走的路线1和目的地点A附近存在障碍物的情况下所走的路线2。
在目的地点A附近不存在障碍物的情况下,如图13例示,图像形成设备18沿着从服务器12接收的行进路线(其是最短路线)从起点0移动到点a0(点a0是离目的地点A预设距离的点)。然后,图像形成设备18从点a0向包括目的地点A的虚拟半圆a1-a2的端点a1直线移动。此后,图像形成设备18在减小接近速度的同时,沿着虚拟半圆a1-a2从端点a1移动到目的地点A。即,在目的地点A附近存在的用户100附近,图像形成设备18以图像形成设备18几乎走出用户100的视野的角度,沿着半圆路线移动。在返回的路上,图像形成设备18沿着半圆路线从目的地点A移动到虚拟半圆a1-a2的端点a2,以增大的速度从端点a2移动到点a0,并且从点a0直线移动到点0。
在检测到目的地点A附近存在障碍物,并且如果走上述路线1,则图像形成设备18可能接触障碍物的情况下,包括目的地点A且具有小于虚拟半圆a1-a2的半径的虚拟半圆b1-b2被用作路线。具体地,图像形成设备18沿着从服务器12接收的行进路线(其是最短路线)从起点0移动到点b0,点b0比点a0更靠近目的地点A且是离目的地点A预设距离的点。然后,图像形成设备18从点b0向包括目的地点A的虚拟半圆b1-b2的端点b1直线移动。此后,图像形成设备18在减小接近速度的同时,沿着虚拟半圆b1-b2从端点b1移动到目的地点A。即,在目的地点A附近存在的用户100附近,图像形成设备18以图像形成设备18几乎走出用户100的视野的角度,沿着半圆路线移动。在返回的路上,图像形成设备18沿着半圆路线从目的地点A移动到虚拟半圆b1-b2的端点b2,以增大的速度从端点b2移动到点b0,并且从点b0直线移动到点0。
图14是例示了包括用户100的多个人存在于目的地点A附近的情况下所走的路线的示图。
在传感器35检测到目的地点A附近存在多个人的情况下,评估单元35基于由人识别单元52、脸识别单元53和视线识别单元54识别的关于每个人的轮廓、脸、视线等的信息,推断多个人中的每个人存在于目的地点的哪侧上、如何定位人、人是否彼此面对、人是否并排定位、或者人是否面向不同方向。图像形成设备18沿着存在更少数量人的方向接近目的地点A。
在障碍物存在于所走路线的中间并且行进路线被自动生成以便在障碍物附近移动的情况下,或者在响应于进入路线的障碍物的检测重置行进路线的情况下,行进路线以与上述类似的方式设置。
图15是例示了用户100坐在PC 10a的安装位置(其是目的地点)附近并且沿着朝向图像形成设备18的方向调整他们的眼睛的情况的示图。图16A和图16B是例示了用户100坐在PC 10a的安装位置(其是目的地点)附近并且不沿着朝向图像形成设备18的方向调整他们的眼睛的情况的示图。
如图15例示,在用户将他们的眼睛调整到图像形成设备18的状态下,评估单元55基于关于目的地点附近存在的用户100的轮廓、脸、视线等的信息,推断用户正坐着并看着图像形成设备18。图像形成设备18使用预设区域内的最短路径,并且此后,在减小接近速度的同时,沿着弯曲路线或从用户100的前面斜对地接近目的地点。如图16A和图16B例示的,在用户不将他们的眼睛调整到图像形成设备18的状态下,评估单元55基于关于目的地点附近存在的用户100的轮廓、脸、视线等的信息,推断用户正坐着、向下看并在工作。然后,图像形成设备18可以切换设置。具体地,如图16A例示的,图像形成设备18可以例如以图像形成设备18可能进入用户100的视野并接近用户100使得图像形成设备18被用户100注意到的角度,沿着最短路线移动。另选地,如图16B例示的,图像形成设备18可以在用户100后面移动并且从用户100的后面斜对地接近用户100,使得图像形成设备18不被用户100注意到。
即,可能存在根据目的地点附加存在的人的状态,期望使图像形成设备18被目的地点附加存在的人注意到的情况以及期望图像形成设备18不被目的地点附近存在的人注意到的情况。因此,通过选择模式使接近方法可选择。
例如,在视线由视线识别单元54成功识别的情况下,可以选择接近方法。具体地,可以在识别出用户100正盯着图像形成设备18的情况下图像形成设备18沿着弯曲路线或从用户100的前面斜对地接近用户100的模式与在识别出用户100未盯着图像形成设备18的情况下图像形成设备18直线接近用户100的模式之间切换。另选地,可以颠倒接近方法。即,可以在识别出用户100正盯着图像形成设备18的情况下图像形成设备18直线接近用户100的模式与在识别出用户100未盯着图像形成设备18的情况下图像形成设备18沿着弯曲路线或从用户100的前面斜对地接近用户100的模式之间切换设置。
进一步地,可以在期望使图像形成设备18不打扰用户100的情况下图像形成设备18从用户100的背面斜对地接近用户100的模式与在期望使用户100注意到图像形成设备18正在接近的情况下图像形成设备18从用户100的前面斜对地接近用户100的模式之间切换设置。
进一步地,可以根据安装地点的环境、用户的特性、时间段等,来切换图像形成设备18的接近方法。例如,可以使用如下接近方法:在大多数人熟悉如上所述的服务并且优先考虑效率的情况下,图像形成设备18沿着最短路线移动,或者可以使用如下接近方法:在存在各种用户并且期望提高服务质量且优先考虑由用户接收的印象的情况下,考虑由用户接收的印象。
在上述示例性实施方式中,描述了这样的示例:办公室58等的地图和关于PC 10a至10d的安装位置的信息被存储在服务器12的数据库26中,并且搜索行进路线;然而,本发明的示例性实施方式不限于此。可以控制图像形成设备18,以便基于存储装置45中存储的办公室58等的地图和关于PC 10a至10d的安装位置的信息,搜索行进路线,并且从起点移动到目的地点。
在上述示例性实施方式中,图像形成设备18被构造为移动到安装PC 10a至10d的任意位置;然而,本发明的示例性实施方式不限于此。图像形成设备18可以被构造为移动到由用户指定的位置或用户携带的位置发射器所在的位置。
在上述示例性实施方式中,图像形成设备18被描述为自主移动机器人的示例;然而,自主移动机器人不限于此,并且可以是能够自主移动的任意机器人。本发明的示例性实施方式可应用于多种使用场景,诸如商用机器的运送、饮料、邮件等的递送、以及使用例如相机、麦克风、显示屏和扬声器的远程监控等。
提供本发明的示例性实施方式的上述说明以用于例示和说明的目的。其不旨在是详尽的,或者将本发明限于所公开的精确形式。显而易见的是,很多修改例和变型例对于本领域技术人员是明显的。选择和描述实施方式以最好地解释本发明的原理及其实际应用,以使本领域其它技术人员能够理解本发明的各种实施方式,以及适合于所设想的具体用途的各种变型。本发明的范围旨在由所附权利要求及其等同物来限定。

Claims (8)

1.一种自主移动机器人,所述自主移动机器人包括:
机器人主体;
移动单元,所述移动单元使所述机器人主体移动到目的地点;
检测器,所述检测器检测所述目的地点附近存在的人的状态;以及
控制器,所述控制器控制所述移动单元,以便使所述自主移动机器人沿着根据由所述检测器检测到的人的状态而不同的行进路线接近所述目的地点附近存在的人。
2.根据权利要求1所述的自主移动机器人,其中
所述检测器包括评估单元,所述评估单元从所述目的地点附近存在的人的视线评估视野,以及
所述控制器控制所述移动单元,以便使所述自主移动机器人根据由所述检测器检测到的人的状态,以所述自主移动机器人可能进入由所述评估单元评估的视野中的角度、以所述自主移动机器人不可能进入所述视野中的角度、或以所述自主移动机器人几乎走出所述视野的角度接近所述目的地点附近存在的人。
3.根据权利要求2所述的自主移动机器人,其中
所述控制器控制所述移动单元,以便使所述自主移动机器人根据时间段,以所述自主移动机器人可能进入由所述评估单元评估的视野中的角度、以所述自主移动机器人不可能进入所述视野中的角度、或以所述自主移动机器人几乎走出所述视野的角度接近所述目的地点附近存在的人。
4.根据权利要求2所述的自主移动机器人,其中
所述控制器控制所述移动单元,以便在所述自主移动机器人在由所述评估单元评估的所述视野内的情况下,使所述自主移动机器人以所述自主移动机器人不可能进入所述视野中的角度、或以所述自主移动机器人几乎走出所述视野的角度接近所述目的地点附近存在的人。
5.根据权利要求1所述的自主移动机器人,其中
所述控制器控制所述移动单元,以便使所述自主移动机器人沿着一路线移动,直到所述自主移动机器人接近离所述目的地点预设距离的点为止,所述路线是所检测到的从起点到所述目的地点的短路线,并且当所述自主移动机器人接近离所述目的地点所述预设距离的点时,甚至在不存在障碍物的情况下,也使所述自主移动机器人沿着除了最短路线之外的路线移动。
6.根据权利要求5所述的自主移动机器人,其中
所述控制器控制所述移动单元,以便当所述自主移动机器人接近离所述目的地点所述预设距离的点时,使所述自主移动机器人在所述目的地点附近以与所述目的地点附近存在的人的脸面向的方向所成的预定角度或更大角度接近所述目的地点附近存在的人,所述方向由所述检测器检测。
7.根据权利要求5所述的自主移动机器人,其中
所述检测器包括评估单元,所述评估单元从所述目的地点附近存在的人的视线评估视野,以及
所述控制器控制所述移动单元,以便当所述自主移动机器人接近离所述目的地点所述预设距离的点时,使所述自主移动机器人以使所述自主移动机器人移动到临时目标点并从所述临时目标点移动到被重置为目标点的目的地点的方式,接近所述目的地点附近存在的人,所述临时目标点是设置在所述目的地点附近、位于由所述评估单元评估的所述目的地点附近存在的人的视野的左侧或右侧并且远离所述视野的点。
8.根据权利要求1至7中的任一项所述的自主移动机器人,其中
所述控制器控制所述移动单元,以便根据由所述检测器检测到的人的状态,控制接近速度的同时使所述自主移动机器人接近所述目的地点附近存在的人。
CN201711078520.4A 2017-01-06 2017-11-06 自主移动机器人 Pending CN108274464A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017001134A JP2018112775A (ja) 2017-01-06 2017-01-06 自律移動ロボット
JP2017-001134 2017-01-06

Publications (1)

Publication Number Publication Date
CN108274464A true CN108274464A (zh) 2018-07-13

Family

ID=62783021

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711078520.4A Pending CN108274464A (zh) 2017-01-06 2017-11-06 自主移动机器人

Country Status (3)

Country Link
US (1) US11016486B2 (zh)
JP (1) JP2018112775A (zh)
CN (1) CN108274464A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109839930A (zh) * 2019-01-16 2019-06-04 江苏理工学院 一种避障装置、系统及方法
CN111208846A (zh) * 2018-11-21 2020-05-29 富士施乐株式会社 自主移动装置以及计算机可读介质

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7190652B2 (ja) * 2017-11-28 2022-12-16 パナソニックIpマネジメント株式会社 自走式病原体検出装置、病原体検出システム、及び、制御方法
US10754600B1 (en) * 2019-06-06 2020-08-25 Xerox Corporation Self-navigating mobile printers making autonomous printing decisions
USD968508S1 (en) 2019-06-06 2022-11-01 Xerox Corporation Mobile printer and storage compartment unit assembly
JP2021022181A (ja) * 2019-07-29 2021-02-18 コニカミノルタ株式会社 パーソナルスペース作成システム、パーソナルスペース作成方法及びパーソナルスペース作成プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101384402A (zh) * 2006-02-17 2009-03-11 丰田自动车株式会社 可移动机器人
CN102048499A (zh) * 2009-10-26 2011-05-11 三星电子株式会社 移动机器人系统以及控制移动机器人系统的方法
JP2012208782A (ja) * 2011-03-30 2012-10-25 Advanced Telecommunication Research Institute International 移動予測装置、ロボット制御装置、移動予測プログラムおよび移動予測方法
WO2016170808A1 (ja) * 2015-04-22 2016-10-27 ソニー株式会社 移動体制御システム、制御方法、および記憶媒体

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3768957B2 (ja) 2002-12-27 2006-04-19 本田技研工業株式会社 移動ロボットの経路設定方法
JP4682217B2 (ja) * 2007-03-07 2011-05-11 パナソニック株式会社 行動制御装置、方法、プログラム
JP2011224679A (ja) * 2010-04-16 2011-11-10 Toyota Motor Corp 応対ロボット、応対制御方法、及び応対制御プログラム
US8761933B2 (en) * 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
JP6048321B2 (ja) * 2013-06-07 2016-12-21 富士ゼロックス株式会社 自走式作業装置及びプログラム
US9717387B1 (en) * 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
US10409292B2 (en) * 2015-12-10 2019-09-10 Panasonic Intellectual Property Corporation Of America Movement control method, autonomous mobile robot, and recording medium storing program
JP6600740B2 (ja) * 2016-04-07 2019-10-30 株式会社日立製作所 制御システムおよび制御装置
JP6872102B2 (ja) * 2016-04-27 2021-05-19 富士フイルムビジネスイノベーション株式会社 移動機器、サービス提供システム、および、制御プラグラム
US10296012B2 (en) * 2016-12-21 2019-05-21 X Development Llc Pre-computation of kinematically feasible roadmaps

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101384402A (zh) * 2006-02-17 2009-03-11 丰田自动车株式会社 可移动机器人
CN102048499A (zh) * 2009-10-26 2011-05-11 三星电子株式会社 移动机器人系统以及控制移动机器人系统的方法
JP2012208782A (ja) * 2011-03-30 2012-10-25 Advanced Telecommunication Research Institute International 移動予測装置、ロボット制御装置、移動予測プログラムおよび移動予測方法
WO2016170808A1 (ja) * 2015-04-22 2016-10-27 ソニー株式会社 移動体制御システム、制御方法、および記憶媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111208846A (zh) * 2018-11-21 2020-05-29 富士施乐株式会社 自主移动装置以及计算机可读介质
CN109839930A (zh) * 2019-01-16 2019-06-04 江苏理工学院 一种避障装置、系统及方法

Also Published As

Publication number Publication date
JP2018112775A (ja) 2018-07-19
US20180196430A1 (en) 2018-07-12
US11016486B2 (en) 2021-05-25

Similar Documents

Publication Publication Date Title
CN108274464A (zh) 自主移动机器人
US11673269B2 (en) Method of identifying dynamic obstacle and robot implementing same
Nakauchi et al. A social robot that stands in line
CN107530882B (zh) 移动体控制系统、控制方法以及存储介质
US20160033280A1 (en) Wearable earpiece for providing social and environmental awareness
US20160080897A1 (en) Wearable clip for providing social and environmental awareness
KR20190100085A (ko) 인공 지능을 이용하여, 위험 상황을 감지할 수 있는 로봇 및 그의 동작 방법
JP2020531943A (ja) 自律車両に割り当てられた乗客を認識すること
US20130325244A1 (en) Time-dependent navigation of telepresence robots
CN104049927A (zh) 用于左转安全提示的增强现实平视显示器(hud)
WO2020129309A1 (ja) 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
US20210019520A1 (en) System and method for eye-tracking
WO2020129312A1 (ja) 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
US12085951B2 (en) Method of updating map in fusion SLAM and robot implementing same
JP6609588B2 (ja) 自律型モビリティシステムおよび自律型モビリティの制御方法
Nair et al. ASSIST: Personalized indoor navigation via multimodal sensors and high-level semantic information
EP4036524A1 (en) A computer-implemented method, wearable device, computer program and computer readable medium for assisting the movement of a visually impaired user
KR20210030155A (ko) 로봇 및 그 제어 방법
JPWO2020129311A1 (ja) 案内ロボット制御装置、及び、それを用いた案内システム、並びに、案内ロボット制御方法
JP2020004182A (ja) ロボット、ロボット制御プログラムおよびロボット制御方法
KR20200128486A (ko) 사용자의 위치를 결정하는 인공 지능 장치 및 그 방법
KR102231922B1 (ko) 인공 지능을 이용하여, 복수의 로봇들을 제어하는 인공 지능 서버
JP7075935B2 (ja) 自律型ロボットシステム
KR20190098930A (ko) 사용자에게 음식을 제공하는 방법 및 그 장치
JP6142307B2 (ja) 注目対象推定システムならびにロボットおよび制御プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Tokyo, Japan

Applicant after: Fuji film business innovation Co.,Ltd.

Address before: Tokyo, Japan

Applicant before: Fuji Xerox Co.,Ltd.

WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20180713