JP2018112775A - 自律移動ロボット - Google Patents

自律移動ロボット Download PDF

Info

Publication number
JP2018112775A
JP2018112775A JP2017001134A JP2017001134A JP2018112775A JP 2018112775 A JP2018112775 A JP 2018112775A JP 2017001134 A JP2017001134 A JP 2017001134A JP 2017001134 A JP2017001134 A JP 2017001134A JP 2018112775 A JP2018112775 A JP 2018112775A
Authority
JP
Japan
Prior art keywords
destination point
person
point
image forming
forming apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017001134A
Other languages
English (en)
Inventor
桜井 康晴
Yasuharu Sakurai
康晴 桜井
坪田 浩和
Hirokazu Tsubota
浩和 坪田
訓稔 山本
Kunitoshi Yamamoto
訓稔 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2017001134A priority Critical patent/JP2018112775A/ja
Priority to US15/690,697 priority patent/US11016486B2/en
Priority to CN201711078520.4A priority patent/CN108274464A/zh
Publication of JP2018112775A publication Critical patent/JP2018112775A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Artificial Intelligence (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Business, Economics & Management (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】目的地点まで直線的に移動する場合と比較して、目的地点付近にいる人に与える不安や恐怖を削減することができる。
【解決手段】ロボット本体部と、前記ロボット本体部を目的地点まで移動させるための移動手段と、目的地点付近の人の状況を検出する検出手段と、前記検出手段により検出された人の状況に応じて異なる移動経路により目的地点付近の人に接近するよう前記移動手段を制御する制御手段と、を備える。
【選択図】図4

Description

本発明は、自律移動ロボットに関する。
特許文献1には、環境内の情報を参照して自律的に移動する移動ロボットであって、ロボットの現在位置並びに現在姿勢を検出する手段と、ロボットが到達すべき目標位置並びにその地点での目標姿勢を決定する手段と、現在位置並びに現在姿勢と目標位置並びに目標姿勢とを比較して移動経路を設定する手段と、を有し、前記移動経路を設定する手段は、ロボット上のある点から目標地点を向く方位軸線とロボットの進行方向の方位軸線とのなす角度が所定値を超えないように経路を設定するものであることを特徴とする移動ロボットが開示されている。
特開2004−209562号公報
従来の工場や工事現場などの特別な環境で稼働する以外にも、一般の人が活動する生活空間内において、センサやマイコンを搭載し、周囲の情報を読み取って自律的に移動するロボットが普及し始めている。このようなロボットが利用者の近傍に接近する場合があるが、このようなロボットが直線的に進んで利用者の直前で急停止すると利用者に不安や恐怖を与えてしまう場合がある。
本発明は、目的地点まで直線的に移動する場合と比較して、目的地点付近にいる人に与える不安や恐怖を削減することができる自律移動ロボットを提供することを目的としている。
請求項1に係る本発明は、ロボット本体部と、前記ロボット本体部を目的地点まで移動させるための移動手段と、目的地点付近の人の状況を検出する検出手段と、前記検出手段により検出された人の状況に応じて異なる移動経路により目的地点付近の人に接近するよう前記移動手段を制御する制御手段と、を備えた自律移動ロボットである。
請求項2に係る本発明は、前記検出手段は、目的地点付近の人の視線から視野を推定する推定手段を有し、前記制御手段は、前記検出手段により検出された人の状況に応じて、前記推定手段により推定された視野に入りやすい角度、視野に入りにくい角度又は視野から外れやすい角度で目的地点付近の人に接近するよう前記移動手段を制御する請求項1記載の自律移動ロボットである。
請求項3に係る本発明は、前記制御手段は、時間帯に応じて、前記推定手段により推定された視野に入りやすい角度、視野に入りにくい角度又は視野から外れやすい角度で目的地点付近の人に接近するよう前記移動手段を制御する請求項2記載の自律移動ロボットである。
請求項4に係る本発明は、前記制御手段は、前記推定手段により推定された視野に自装置が含まれている場合には、視野に入りにくい角度又は視野から外れやすい角度で接近するよう前記移動手段を制御する請求項2記載の自律移動ロボットである。
請求項5に係る本発明は、前記制御手段は、出発地点から目的地点までの距離が短い経路を検出し、目的地点から予め設定された距離に近づくまでは距離が短い経路に沿って移動し、目的地点から予め設定された距離に近づいたら、障害物がない場合であっても、最短経路以外の経路を移動するよう前記移動手段を制御する請求項1記載の自律移動ロボットである。
請求項6に係る本発明は、前記制御手段は、目的地点から予め設定された距離に近づいたら、目的地点の近傍であって前記検出手段により検出された目的地点付近の人の顔の向いている方向から予め定められた角度以上の角度から前記目的地点付近の人に接近するよう前記移動手段を制御する請求項5記載の自律移動ロボットである。
請求項7に係る本発明は、前記検出手段は、目的地点付近の人の視線から視野を推定する推定手段を有し、前記制御手段は、目的地点から予め設定された距離に近づいたら、目的地点の近傍であって前記推定手段により推定された目的地点付近の人の視野から左右のいずれかに外れた地点を仮目標地点として設定して移動し、仮目標地点から再度目標地点に設定して移動して、目的地点付近の人に接近するよう前記移動手段を制御する請求項5記載の自律移動ロボットである。
請求項8に係る本発明は、前記制御手段は、前記検出手段により検出された人の状況に応じて、接近速度を制御して目的地点付近の人に接近するよう前記移動手段を制御する請求項1から7いずれか記載の自律移動ロボットである。
請求項1に係る本発明によれば、目的地点まで直線的に移動する場合と比較して、目的地点付近にいる人に与える不安や恐怖を削減することができる自律移動ロボットを提供することができる。
請求項2に係る本発明によれば、目的地点まで直線的に移動する場合と比較して、目的地点付近にいる人に与える不安や恐怖を削減することができる自律移動ロボットを提供することができる。
請求項3に係る本発明によれば、時間帯によって異なる目的地点付近にいる人の状況に応じた接近方法により、目的地点に接近することができる自律移動ロボットを提供することができる。
請求項4に係る本発明によれば、目的地点まで直線的に移動する場合と比較して、目的地点付近にいる人に与える不安や恐怖を削減することができる自律移動ロボットを提供することができる。
請求項5に係る本発明によれば、目的地点まで直線的に移動する場合と比較して、目的地点付近にいる人に与える不安や恐怖を削減することができる自律移動ロボットを提供することができる。
請求項6に係る本発明によれば、目的地点まで直線的に移動する場合と比較して、目的地点付近にいる人に与える不安や恐怖を削減することができる自律移動ロボットを提供することができる。
請求項7に係る本発明によれば、目的地点まで直線的に移動する場合と比較して、目的地点付近にいる人に与える不安や恐怖を削減することができる自律移動ロボットを提供することができる。
請求項8に係る本発明によれば、目的地点付近にいる人の状況に応じた異なる接近方法により目的地点に接近することができる自律移動ロボットを提供することができる。
本発明の一実施形態に係る画像形成システムのシステム構成を示す図である。 本発明の一実施形態に係るサーバのハードウェア構成を示すブロック図である。 本発明の一実施形態に係る画像形成装置のハードウェア構成を示すブロック図である。 本発明の一実施形態に係る画像形成装置の機能構成を示すブロック図である。 本発明の実施形態に適用したオフィスを示す平面図である。 本発明の一実施形態に係るサーバの制御フローを示すフローチャートである。 本発明の実施形態に適用した経路探索説明図である。 本発明の一実施形態に係る画像形成装置の動作の一例を示す図である。 本発明の一実施形態に係る画像形成装置の動作の一例を示す図である。 本発明の一実施形態に係る画像形成装置の動作の一例を示す図である。 本発明の一実施形態に係る画像形成装置の動作の一例を示す図である。 本発明の一実施形態に係る画像形成装置の動作の一例を示す図である。 本発明の一実施形態に係る画像形成装置の動作の一例を示す図である。 本発明の一実施形態に係る画像形成装置の動作の一例を示す図である。 本発明の一実施形態に係る画像形成装置の動作の一例を示す図である。 本発明の一実施形態に係る画像形成装置の動作の一例を示す図である。
次に、本発明の実施の形態について図面を参照して詳細に説明する。本実施形態において、自律移動ロボットの一例として移動式の画像形成装置を用いて説明する。
図1は、本発明の一実施形態に係る移動式の画像形成装置を用いた画像形成システム1の構成を示す図である。
本発明の実施形態に係る画像形成システム1は、例えば4つのパーソナルコンピュータ10a〜10d、サーバ12及び無線LANターミナル14がネットワーク16を介して接続されている。また、自律移動ロボットとしての画像形成装置18は、無線LANターミナル14との間で印刷データ等を送受信するようになっている。また、画像形成システム1は、商用電源と太陽光発電機能を有するホームポジション20を備え、画像形成装置18は、ホームポジション20に待機するようになっている。
パーソナルコンピュータ10a〜10dは、各使用者により作成されたそれぞれの印刷データをサーバ12に送るようになっている。
図2は、サーバ12のハードウェア構成を示すブロック図である。
サーバ12は、図2に示すように、CPU22、メモリ24、データベース26及びネットワークインターフェイス28を有し、これらが制御バス30を介して接続されている。
CPU22は、メモリ24に格納された制御プログラムに基づいて予め定められた処理を実行して、サーバ12の動作を制御する。
メモリ24は、制御プログラムや後述する印刷データを記憶する。
データベース26には、パーソナルコンピュータ10a〜10dが設置されたオフィス等の設置場所の地図とパーソナルコンピュータ10a〜10dが設置された設置位置とが記憶されている。
なお、この実施形態においては、サーバ12は、有線のネットワーク16を介してパーソナルコンピュータ10a〜10dに接続されているが、無線LANにより接続するようにしてもよいし、また、クラウドとしてインターネットを介して接続するようにしてもよい。
画像形成装置18は、図1に示すように、自走式であって、ロボット本体部としての本体部32、無線通信部34、検出手段としてのセンサ35及び移動手段としての移動装置36を有する。
本体部32は、画像形成を行う部分で、無線通信部34により受け付けた印刷データを用紙に印刷する。
センサ35は、周囲の状態や経路上に存在する障害物や人を検出する。また、センサ35は、目的地点付近の人の状況を検出する。センサ35として、例えばカメラ、赤外線センサ、超音波センサ等が用いられる。
移動装置36は、サーバ12からの移動命令を受けて本体部32を目的地点まで移動させる。移動装置36として、例えば車輪や脚等が用いられる。車輪や脚等に駆動源としての例えばモータ、アクチュエータ、エンジン、油圧ポンプ等が接続される。
図3は、画像形成装置18のハードウェア構成を示すブロック図である。
画像形成装置18は、図3に示すように、制御手段としてのCPU40、メモリ42、入力部44、記憶装置45、無線通信部34、画像形成部46、移動装置36及びセンサ35を有し、これらが制御バス48を介して接続されている。
CPU40は、メモリ42に格納された制御プログラムに基づいて予め定められた処理を実行する。
入力部44は、使用者のIDやパスワード等を入力する入力情報を受け付ける。入力部44には、例えばICカードにより使用者のIDが入力されるID入力部が含まれる。
無線通信部34は、無線LANターミナル14との間で無線回線を介してデータの送受信を行っている。
記憶装置45は、画像形成装置18の各部を制御するための制御プログラムを記憶する。また、パーソナルコンピュータ10a〜10dが設置されたオフィス等の設置場所の地図とパーソナルコンピュータ10a〜10dが設置された設置位置とを記憶する。
画像形成部46は、画像形成を行う部分で、無線通信部34により受け付けた印刷データを用紙に印刷する。
移動装置36は、前述したサーバ12からの移動命令を無線通信部34によりCPU40が受けると、その移動命令に応じて制御されるようになっている。
センサ35は、自装置(画像形成装置18)の現在の位置を検出する。また、センサ35は、周囲の状態や経路上に存在する障害物や人を検出する。また、センサ35は、目的地点付近の人の状況を検出する。
そして、CPU40は、センサ35により検出された目的地点付近の人の状況に応じて異なる移動経路により目的地点付近の人に接近するよう移動装置36を制御する。
図4は、プログラムが実行されることにより実現される画像形成装置18の機能構成を示すブロック図である。
画像形成装置18は、無線通信部34によりデータを送受信して、記憶装置45に記憶されている制御プログラムをCPU40において実行することにより、図4に示されるように、自己位置検出部50、障害物検出部51、人認識部52、顔認識部53、視線認識部54、推定部55、経路決定部56、移動制御部57として機能して、移動装置36を制御する。
自己位置検出部50は、センサ35によって、自装置(画像形成装置18)の現在の位置情報を検出する。具体的には、例えばカメラから得られる映像を用いて物体認識処理をしたり、赤外線レーザから得られる障害物までの距離情報を3次元的に判定することにより、周囲の障害物マップを作成し、自装置の位置を検出する。
障害物検出部51は、センサ35により、目的地点までの周囲の情報を取得して、障害物を検出する。
人認識部52は、センサ35により、目的地点付近にいる人を認識する。
顔認識部53は、人認識部52により認識された人の顔を認識する。
視線認識部54は、顔認識部53により認識された顔の目の視線を認識する。
推定部55は、視線認識部54により認識された人の視線から視野を推定する。ここで、視野とは、目に見える範囲であって、人間の視野は、片目では上側に約60度、下側に約70度、水平側に約90〜100度と言われている。また、両目で同時に見える範囲は約120度程度である。
また、推定部55は、人認識部52、顔認識部53及び視線認識部54等により認識された情報と、障害物検出部51により検出された障害物の情報に基づいて目的地点付近にいる人の状況を推定する。
具体的には、推定部55は、センサ35により検出された画像から目的地点付近にいる人を抽出し、目的地点付近の人の状況を推定する。つまり、人認識部52、顔認識部53及び視線認識部54により認識された人物の輪郭、顔、視線等の情報から、何をしているのか推定し、例えば、立っているのか、座っているのか、どちらを向いているのか、顔を伏せて仕事をしているのか、対面で会話しているのか等の情報を取得することができる。また、複数の人間がいるときに、目的地点のどちら側にいて、どのような配置であるのか、お互い対面しているのか、並んでいるのか、ばらばらの方向を向いているのかを推定することができる。
また、推定部55は、センサ35が周囲の状況を検出し、検出された画像から障害物と人とを認識し、目的地点付近の障害物と人との配置を認識する。そして、人物の輪郭からその人物が何をしているのかを推定する。
経路決定部56は、サーバ12から受信した移動経路と、センサ35から検出された情報に基づいて移動経路を決定する。具体的には、自己位置検出部50により検出された現在の自装置の位置情報と、障害物検出部51により検出された障害物の情報と、人認識部52、顔認識部53及び視線認識部54により認識されて推定部55により推定された目的地点付近にいる人の状況と、サーバ12から受信した移動経路情報、オフィス58の地図、パーソナルコンピュータ10aの設置位置に関する情報、に基づいて目的地点までの移動経路を決定する。
移動制御部57は、経路決定部56により決定された移動経路に沿って移動するよう制御する。具体的には、目的地点付近にいる人の状況に応じて接近する経路と速度を制御する。また、移動制御部57は、視線認識部54により目的地点付近にいる人が自装置を見ているかどうかによって接近する経路と速度を制御する。
図5は、画像形成装置18が設置されたオフィス58を示す平面図である。
オフィス58は、複数の領域、例えば会議領域60、作業領域62a〜62d、受付領域64等に分かれている。それぞれの領域60〜64には、多数のパーソナルコンピュータ10が用意されている。また、オフィス58には、用紙、トナー等の物品を保管する保管庫66が設置されている。この保管庫66から複数の例えば2台の画像形成装置18が用紙等を収容できるようにされている。この保管庫66の設置位置を画像形成装置18のホームポジション20とすることができる。また、オフィス58には、監視カメラ68が設置されている。
図6は、サーバ12の制御フローを示すフローチャートである。図7は、オフィス58内を画像形成装置18が出発地点であるホームポジション20から目的地点であるパーソナルコンピュータ10aの利用者の席へ移動する経路探索説明図である。
まず、ステップS10において、サーバ12は、複数のパーソナルコンピュータ10a〜10dから印刷データを受け付ける。印刷データには、印刷ジョブ、パーソナルコンピュータ10a〜10dを使用する使用者のID及び印刷の設定情報(カラー−白黒、用紙の種類及びサイズ、両面−片面、印刷の画質、複数頁印刷(2in1等)、後処理の種類等)が含まれる。印刷データが複数ある場合は、印刷ジョブは受付順に印刷ジョブキューとしてメモリ24に記憶される。
次のステップS12においては、パーソナルコンピュータ10a〜10dを使用する使用者のIDから印刷ジョブを送信したパーソナルコンピュータ10a〜10dを目的地点として特定する。そして、データベース26に格納されているオフィス58の地図、パーソナルコンピュータ10a〜10dの設置位置に関する情報に基づいて、画像形成装置18が配置されている出発地点から目的地点までの移動経路が探索され、蓄積されたデータに基づいて交通量が少なく、最も短距離の経路を移動経路として決定する。具体的には、図7に示すように、経路1〜3が探索され、最も交通量が少なく短距離の経路である例えば経路2を移動経路として決定する。
次のステップS14においては、決定した移動経路2に沿って画像形成装置18が移動するよう逐次移動命令を画像形成装置18に出力する。
次のステップS16においては、各場所で印刷されるべき印刷ジョブを画像形成装置18に送信する。
送信した印刷ジョブの出力が完了した場合、次のステップS18においては、その印刷ジョブが最後か否か判定し、最後ではない場合はステップS14に戻って現在の位置を出発地点とし、次の印刷ジョブを出力するための場所(目的地点)へ画像形成装置18が移動するように逐次移動命令を出力する。ステップS18において、その印刷ジョブが最後であると判定された場合は、ステップS20に進み、画像形成装置18をホームポジション20に戻して処理を終了する。
図8〜図10は、画像形成装置18が、例えば出発地点0から人である利用者100の席等の目的地点Aへ移動する際に、センサ35が目的地点A付近に利用者100がいることを検出した場合の画像形成装置18の動作を示している。
まず、センサ35が目的地点A付近に利用者100がいることを検出すると、画像形成装置18は、最短経路と利用者100との位置関係に基づいて経路が決定される。そして、画像形成装置18は、目的地点から予め設定された距離に近づくまでは最短経路であるサーバ12から受信した移動経路に沿って移動し、目的地点から予め設定された距離に近づいたら、障害物がない場合であっても、最短経路を進まずに最短経路以外の経路を移動して、目的地点Aに接近速度を減速して近づく。
最短経路以外の経路として、例えば、目的地点から予め設定された距離に近づいたら、予め定められた距離だけ遠回りする経路、目的地点から予め設定された距離に近づいたら、センサ35により利用者100の顔が向いている方向を検出し、顔が向いている方向から予め定められた角度以上の角度から目的地点に近づくような経路等が含まれる。
また、センサ35により、利用者100の顔、視線が認識され、推定部55により推定された視野に自装置が含まれていた場合に、画像形成装置18は、最短経路と利用者100との位置関係に基づいて経路が決定される。具体的には、画像形成装置18は、図8に示すように、目的地点Aから予め設定された距離に近づくまでは最短経路であるサーバ12から受信した移動経路に沿って移動し、目的地点Aから予め設定された距離に近づいたら、移動経路を直線的に進まずに利用者100の視野の右側又は左側のいずれか一方側の端に向かって曲線経路を進み、利用者100の視野に入りにくい角度である利用者100の視野の横又は斜めから目的地点Aに接近速度を減速して近づく。そして、画像形成装置18は、目的地点Aに到着後に、利用者100が利用しやすい方向に、その場で回転し、入力部44への使用者のIDやパスワード等の入力情報の受け付けにより印刷ジョブを出力する。そして、画像形成装置18は、復路においても往路と同様の方向に目的地点Aから予め設定された距離までは曲線経路を進み、予め設定された距離からは速度を加速して最短経路であるサーバ12から受信した移動経路に沿って元の位置に戻る。これにより、目的地点A付近にいる利用者100に不安感や恐怖感を与えずに、目的地点Aに接近することができ、接触の危険性も回避される。また、このような滑らかな曲線経路をとることにより、例えばホテルロビー正面でのタクシー経路や、桟橋に遊覧船が発着するときのような上質感が演出される。
また、画像形成装置18は、図9に示すように、目的地点Aから予め設定された距離に近づくまでは最短経路であるサーバ12から受信した移動経路に沿って移動し、目的地点Aから予め設定された距離に近づいたら、移動経路を直線的に進まずに利用者100の視野の右側又は左側のいずれか一方側の端に向かって曲線経路を進み、利用者100の視野から外れやすい角度である利用者100の視野の横又は斜めから目的地点Aに接近速度を減速して近づく。そして、画像形成装置18は、目的地点Aに到着後に、利用者100が利用しやすい方向に、その場で回転し、入力部44への使用者のIDやパスワード等の入力情報の受け付けにより印刷ジョブを出力する。そして、画像形成装置18は、復路においても往路と同様の方向に目的地点Aから予め設定された距離までは曲線経路をとって、予め設定された距離からは速度を加速して最短経路であるサーバ12から受信した移動経路に沿って元の位置に戻る。
また、画像形成装置18は、図10に示すように、目的地点Aから予め設定された距離に近づくまでは最短経路であるサーバ12から受信した移動経路に沿って移動し、目的地点Aから予め設定された距離に近づいて、例えばセンサ35により人の顔を認識し、視野を認識できないような場合には、移動経路を直線的に進まずに利用者100の顔が向いている方向から予め定められた角度α以上の角度から目的地点Aに接近速度を減速して近づく。そして、画像形成装置18は、目的地点Aに到着後に、利用者100が利用しやすい方向に、その場で回転し、入力部44への使用者のIDやパスワード等の入力情報の受け付けにより印刷ジョブを出力する。そして、画像形成装置18は、復路においても往路と同様の方向に目的地点Aから予め設定された距離までは曲線経路をとって、予め設定された距離からは速度を加速して最短経路であるサーバ12から受信した移動経路に沿って元の位置に戻る。
ここで、「視野に入りにくい角度」とは、視野の範囲外であって、例えば人間の水平側の両目の視野の約120度の外側を意味する。また、「視野から外れやすい角度」とは、視野の範囲内であって視野の外側に近い内側の例えば人間の水平側の両目の視野の約120度に近い内側を意味する。
また、センサ35により、利用者100の顔、視線が認識され、推定部55により推定された利用者100の視野に自装置が含まれていない場合に、最短経路と利用者100との位置関係に基づいて経路が決定される。ここで、出発地点、目的地点、使用者が直線上に並んでいない場合には、遠回りしない経路が選択される。具体的には、画像形成装置18は、図11に示すように、目的地点Aから予め設定された距離に近づくまでは最短経路であるサーバ12から受信した移動経路に沿って移動し、目的地点Aから予め設定された距離に近づいて利用者100の視野に入ったら、移動経路を直線的に進まずに利用者側の視野の端に向かって曲線経路を進み、利用者100の視野から外れやすい角度である利用者100の視野の横又は斜めから目的地点Aに接近速度を減速して近づく。そして、画像形成装置18は、目的地点Aに到着後に、利用者100が利用しやすい方向に、その場で回転し、入力部44への使用者のIDやパスワード等の入力情報の受け付けにより印刷ジョブを出力する。そして、画像形成装置18は、復路においても往路と同様の方向に目的地点Aから予め設定された距離までは曲線経路をとって、予め設定された距離からは速度を加速して最短経路であるサーバ12から受信した移動経路に沿って元の位置に戻る。
なお、上述の実施形態においては、復路においても往路と同じ方向の曲線経路をとって、目的地点Aから予め設定された距離からは最短経路に沿って元の位置に戻る構成について説明したが、これに限らず、復路においては、往路と同じ経路に沿って元の位置に戻るようにしてもよく、また、印刷ジョブを出力後に、曲線経路をとらずに最短距離で元の位置に戻るようにしてもよい。
図12は、画像形成装置18が、出発地点0から目的地点Aへ移動する際に、センサ35が目的地点A付近に利用者100がいることを検出した場合の画像形成装置18の動作の変形例1について説明する。
センサ35により、利用者100の顔、視線が認識され、推定部55により推定された視野に自装置が含まれていた場合に、画像形成装置18は、図12に示すように、目的地点Aから十分遠い範囲(例えば5m以上)では、最短経路であるサーバ12から受信した移動経路に沿って移動する。そして、画像形成装置18は、目的地点Aから予め設定された距離(例えば5m程度)に近づいたら、目的地点Aの近傍であって該目的地点Aから左右いずれかに例えば2m程度外れた地点を仮目標地点A1として設定する。ここで、左右どちらにずれた位置を仮目標地点とするかはセンサ35によって目的地点周辺の障害物を検出し、障害物のない方向を仮目標地点A1として設定する。そして、画像形成装置18は、仮目標地点A1への最短経路に沿って目的地点Aから例えば2m程度まで進む。そして、画像形成装置18は、目的地点Aから2m程度になったら目標地点を仮目標地点A1から再度目的地点Aに設定する。このとき、画像形成装置18は、視野の端を曲線経路で接近速度を減速して移動しながら目的地点Aに設定する。そして、画像形成装置18は、目的地点Aから予め設定された範囲の例えば1.5m程度になったら目的地点Aへの最短経路に沿って移動し、出発地点0から目的地点A付近の利用者100に直線的に接近した場合の経路から約45度程度ずれた視野から外れやすい角度である利用者100の斜め方向から利用者100に接近する。
なお、移動経路上に障害物を検出した場合には、仮目標地点A1のずれ幅を例えば50cm程度に小さくしたり、仮目標地点A1から目的地点Aに目標変更する距離を長くしたりして調整する。
図13は、画像形成装置18が、出発地点0から目的地点Aへ移動する際に、センサ35が目的地点A付近に利用者100がいることを検出し、利用者100の視野に自装置が含まれていた場合の画像形成装置18の動作の変形例2について説明する。変形例2では、目的地点Aの近傍に障害物がない場合の経路1と障害物がある場合の経路2について説明する。
目的地点Aの近傍に障害物がない場合には、画像形成装置18は、図13に示すように、出発地点0から目的地点から予め設定された距離であるa0までは、最短経路であるサーバ12から受信した移動経路に沿って移動する。そして、画像形成装置18は、a0から目的地点Aを含む仮想半円a1−a2の端点a1まで直線移動する。そして、画像形成装置18は、端点a1から目的地点Aまでは接近速度を減速して仮想半円a1−a2上を移動する。すなわち、画像形成装置18は、目的地点A付近の利用者100近傍では、視野から外れやすい角度から半円状の経路に沿って移動する。そして、画像形成装置18は、復路においても目的地点Aから仮想半円a1−a2の端点a2までは半円状の経路に沿って移動し、a2から加速してa0まで、a0から0までは直線移動する。
また、目的地点Aの近傍に障害物があると検出され、上述した経路1では画像形成装置18が障害物と接触してしまう場合には、仮想半円a1−a2よりも径の小さい目的地点Aを含む仮想半円b1−b2を経路に用いる。すなわち、画像形成装置18は、出発地点0から目的地点から予め設定された距離であるa0よりも目的地点に近いb0までは、最短距離であるサーバ12から受信した移動経路に沿って移動する。そして、画像形成装置18は、b0から目的地点Aを含む仮想半円b1−b2の端点b1まで直線移動する。そして、画像形成装置18は、端点b1から目的地点Aまでは接近速度を減速して仮想半円b1−b2上を移動する。すなわち、画像形成装置18は、目的地点A付近の利用者100近傍では、視野から外れやすい角度から半円状の経路に沿って移動する。そして、画像形成装置18は、復路においても目的地点Aから仮想半円b1−b2の端点b2までは半円状の経路に沿って移動し、b2から加速してb0まで、b0から0までは直線移動する。
図14は、目的地点A付近に利用者100を含む複数の人がいる場合の経路を示す図である。
センサ35が、目的地点A付近に複数の人が存在すると検出した場合に、推定部55は、人認識部52、顔認識部53及び視線認識部54により認識された人の輪郭、顔、視線等の情報から、複数の人たちが目的地点のどちら側にいて、どのような配置であるのか、お互い対面しているのか、並んでいるのか、ばらばらの方向を向いているのかを推定し、画像形成装置18は、人の少ない方から目的地点Aに接近する。
なお、経路途中に障害物があり、それを避けるように移動経路を自動生成する場合や、障害物が入り込んだことを検知して移動経路を再設定する場合も同様である。
図15は、目的地点であるパーソナルコンピュータ10aの設置位置付近に利用者100が座って画像形成装置18の方向に視線を向けている場合を示し、図16は、目的地点であるパーソナルコンピュータ10aの設置位置付近に利用者100が座って画像形成装置18の方向に視線を向けていない場合を示す図である。
図15に示すように、利用者100が画像形成装置18に視線を向けている状態においては、推定部55は、目的地点付近にいる利用者100の輪郭、顔、視線等の情報から、利用者100が座って画像形成装置18を見ていると推定する。そして、画像形成装置18は、予め設定された範囲までは最短経路を用いて、その後、曲線経路や斜め前方から目的地点に減速して接近する。一方、図16に示すように、利用者100が画像形成装置18に視線を向けていない状態においては、推定部55は、目的地点A付近にいる利用者100の輪郭、顔、視線等の情報から、座って顔を伏せて仕事をしていると推定する。そして、画像形成装置18は、図16(a)に示すように、利用者100に気付かれるように視野に入りやすい角度で例えば最短距離を移動して利用者100に接近したり、図16(b)に示すように、利用者100に気付かれないように回り込んで斜め後方から接近するように設定を切り換えることができる。
すなわち、目的地点付近の人の状況に応じて、目的地点付近の人に気付かれるようにしたい場合と気付かれないようにしたい場合があり、モード選択により接近方法を選択できるようにされている。
例えば、視線認識部54により視線を認識することができた場合に、接近方法を選択できる。具体的には、画像形成装置18を注視していると認識された場合には、画像形成装置18が曲線経路や斜め前方から接近し、注視していないと認識された場合には、画像形成装置18が真っ直ぐ接近するように切り換えることができる。また、接近方法は逆であってもよく、画像形成装置18を注視していると認識された場合には、画像形成装置18が真っ直ぐ接近し、注視していないと認識された場合には、画像形成装置18が曲線経路や斜め前方から接近するように設定を切り換えることができる。
また、置かれている環境によって、利用者の邪魔をしないようにしたい場合には、画像形成装置18が斜め後方から接近する、画像形成装置18が接近していることを利用者に気付かせたい場合には、画像形成装置18が斜め前方から接近するように設定を切り換えることができる。
また、設置場所の環境、客層、時間帯等に応じて、画像形成装置18の接近方法を切り換えることができる。例えば、効率優先で使い慣れた人が多い場合は、画像形成装置18が最短距離を移動し、様々な人がいて、サービスの質を上げて利用者の印象を優先させたい場合には、利用者の印象に配慮した接近方法をとるようにすることができる。
以上、上記実施形態では、サーバ12のデータベース26にオフィス58等の地図、パーソナルコンピュータ10a〜10dの設置位置に関する情報を格納し、移動経路を探索する例について説明したが、これに限らず、画像形成装置18が記憶装置45に記憶されたオフィス58等の地図、パーソナルコンピュータ10a〜10dの設置位置に関する情報に基づいて、移動経路を探索し、出発地点から目的地点まで移動するよう制御するようにしてもよい。
また、上記実施形態においては、パーソナルコンピュータ10a〜10dが設置された場所に画像形成装置18を移動させるようにしたが、これに限定されるものではない。例えば使用者が指定した場所であってもよいし、使用者に位置発信機を持たせ、その位置発信機の場所へ移動させるようにしてもよい。
以上説明した実施形態では、自律移動ロボットの一例として画像形成装置18を例に挙げて説明したが、これに限らず、自律移動を伴うロボットであればよく、OA機器の搬送、飲食物、郵便等の配達物等の搬送、カメラ、マイク、表示画面、スピーカ等を備えたテレプレゼンス等、多種多様なものに適用される。
1 画像形成システム
10 パーソナルコンピュータ
12 サーバ
18 画像形成装置(自律移動ロボット)
34 無線通信部
35 センサ
36 移動装置
40 CPU
42 メモリ
44 入力部
45 記憶装置
46 画像形成部

Claims (8)

  1. ロボット本体部と、
    前記ロボット本体部を目的地点まで移動させるための移動手段と、
    目的地点付近の人の状況を検出する検出手段と、
    前記検出手段により検出された人の状況に応じて異なる移動経路により目的地点付近の人に接近するよう前記移動手段を制御する制御手段と、
    を備えた自律移動ロボット。
  2. 前記検出手段は、目的地点付近の人の視線から視野を推定する推定手段を有し、
    前記制御手段は、前記検出手段により検出された人の状況に応じて、前記推定手段により推定された視野に入りやすい角度、視野に入りにくい角度又は視野から外れやすい角度で目的地点付近の人に接近するよう前記移動手段を制御する請求項1記載の自律移動ロボット。
  3. 前記制御手段は、時間帯に応じて、前記推定手段により推定された視野に入りやすい角度、視野に入りにくい角度又は視野から外れやすい角度で目的地点付近の人に接近するよう前記移動手段を制御する請求項2記載の自律移動ロボット。
  4. 前記制御手段は、前記推定手段により推定された視野に自装置が含まれている場合には、視野に入りにくい角度又は視野から外れやすい角度で接近するよう前記移動手段を制御する請求項2記載の自律移動ロボット。
  5. 前記制御手段は、出発地点から目的地点までの距離が短い経路を検出し、目的地点から予め設定された距離に近づくまでは距離が短い経路に沿って移動し、目的地点から予め設定された距離に近づいたら、障害物がない場合であっても、最短経路以外の経路を移動するよう前記移動手段を制御する請求項1記載の自律移動ロボット。
  6. 前記制御手段は、目的地点から予め設定された距離に近づいたら、目的地点の近傍であって前記検出手段により検出された目的地点付近の人の顔の向いている方向から予め定められた角度以上の角度から前記目的地点付近の人に接近するよう前記移動手段を制御する請求項5記載の自律移動ロボット。
  7. 前記検出手段は、目的地点付近の人の視線から視野を推定する推定手段を有し、
    前記制御手段は、目的地点から予め設定された距離に近づいたら、目的地点の近傍であって前記推定手段により推定された目的地点付近の人の視野から左右のいずれかに外れた地点を仮目標地点として設定して移動し、仮目標地点から再度目標地点に設定して移動して、目的地点付近の人に接近するよう前記移動手段を制御する請求項5記載の自律移動ロボット。
  8. 前記制御手段は、前記検出手段により検出された人の状況に応じて、接近速度を制御して目的地点付近の人に接近するよう前記移動手段を制御する請求項1から7いずれか記載の自律移動ロボット。
JP2017001134A 2017-01-06 2017-01-06 自律移動ロボット Pending JP2018112775A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017001134A JP2018112775A (ja) 2017-01-06 2017-01-06 自律移動ロボット
US15/690,697 US11016486B2 (en) 2017-01-06 2017-08-30 Autonomous mobile robot
CN201711078520.4A CN108274464A (zh) 2017-01-06 2017-11-06 自主移动机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017001134A JP2018112775A (ja) 2017-01-06 2017-01-06 自律移動ロボット

Publications (1)

Publication Number Publication Date
JP2018112775A true JP2018112775A (ja) 2018-07-19

Family

ID=62783021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017001134A Pending JP2018112775A (ja) 2017-01-06 2017-01-06 自律移動ロボット

Country Status (3)

Country Link
US (1) US11016486B2 (ja)
JP (1) JP2018112775A (ja)
CN (1) CN108274464A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021022181A (ja) * 2019-07-29 2021-02-18 コニカミノルタ株式会社 パーソナルスペース作成システム、パーソナルスペース作成方法及びパーソナルスペース作成プログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7190652B2 (ja) * 2017-11-28 2022-12-16 パナソニックIpマネジメント株式会社 自走式病原体検出装置、病原体検出システム、及び、制御方法
JP2020086756A (ja) * 2018-11-21 2020-06-04 富士ゼロックス株式会社 自律移動装置およびプログラム
CN109839930B (zh) * 2019-01-16 2021-09-24 江苏理工学院 一种避障装置、系统及方法
US10754600B1 (en) * 2019-06-06 2020-08-25 Xerox Corporation Self-navigating mobile printers making autonomous printing decisions
USD968508S1 (en) 2019-06-06 2022-11-01 Xerox Corporation Mobile printer and storage compartment unit assembly

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008246665A (ja) * 2007-03-07 2008-10-16 Matsushita Electric Ind Co Ltd 行動制御装置、方法、プログラム
JP2011224679A (ja) * 2010-04-16 2011-11-10 Toyota Motor Corp 応対ロボット、応対制御方法、及び応対制御プログラム
WO2016170808A1 (ja) * 2015-04-22 2016-10-27 ソニー株式会社 移動体制御システム、制御方法、および記憶媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3768957B2 (ja) 2002-12-27 2006-04-19 本田技研工業株式会社 移動ロボットの経路設定方法
JP4506685B2 (ja) * 2006-02-17 2010-07-21 トヨタ自動車株式会社 移動型ロボット
CN102048499B (zh) * 2009-10-26 2015-04-01 三星电子株式会社 移动机器人系统以及控制移动机器人系统的方法
JP5763384B2 (ja) * 2011-03-30 2015-08-12 株式会社国際電気通信基礎技術研究所 移動予測装置、ロボット制御装置、移動予測プログラムおよび移動予測方法
US8761933B2 (en) * 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
JP6048321B2 (ja) * 2013-06-07 2016-12-21 富士ゼロックス株式会社 自走式作業装置及びプログラム
US9717387B1 (en) * 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
US10409292B2 (en) * 2015-12-10 2019-09-10 Panasonic Intellectual Property Corporation Of America Movement control method, autonomous mobile robot, and recording medium storing program
US10732643B2 (en) * 2016-04-07 2020-08-04 Hitachi, Ltd. Control system, moving object, and control apparatus
JP6872102B2 (ja) * 2016-04-27 2021-05-19 富士フイルムビジネスイノベーション株式会社 移動機器、サービス提供システム、および、制御プラグラム
US10296012B2 (en) * 2016-12-21 2019-05-21 X Development Llc Pre-computation of kinematically feasible roadmaps

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008246665A (ja) * 2007-03-07 2008-10-16 Matsushita Electric Ind Co Ltd 行動制御装置、方法、プログラム
JP2011224679A (ja) * 2010-04-16 2011-11-10 Toyota Motor Corp 応対ロボット、応対制御方法、及び応対制御プログラム
WO2016170808A1 (ja) * 2015-04-22 2016-10-27 ソニー株式会社 移動体制御システム、制御方法、および記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021022181A (ja) * 2019-07-29 2021-02-18 コニカミノルタ株式会社 パーソナルスペース作成システム、パーソナルスペース作成方法及びパーソナルスペース作成プログラム

Also Published As

Publication number Publication date
CN108274464A (zh) 2018-07-13
US11016486B2 (en) 2021-05-25
US20180196430A1 (en) 2018-07-12

Similar Documents

Publication Publication Date Title
JP2018112775A (ja) 自律移動ロボット
JP5324286B2 (ja) ネットワークロボットシステム、ロボット制御装置、ロボット制御方法およびロボット制御プログラム
EP3552072B1 (en) Robotic cleaning device with operating speed variation based on environment
JP2019512424A (ja) 自動位置配置システム
KR20210017981A (ko) 로봇을 이용한 서빙 시스템 및 그 작동방법
JP5768273B2 (ja) 歩行者の軌跡を予測して自己の回避行動を決定するロボット
US8423225B2 (en) Methods and systems for movement of robotic device using video signal
JP5764795B2 (ja) 移動ロボット、移動ロボット用の学習システムおよび移動ロボットの行動学習方法
KR20190118175A (ko) 로봇식 모바일 플랫폼을 위한 시스템 및 방법
US20130218395A1 (en) Autonomous moving apparatus and method for controlling the same
JP2007260822A (ja) 道案内ロボット
JP5828088B2 (ja) 遠隔制御システム
CN108720731B (zh) 用于运行自主行进的车辆的方法
JP5085251B2 (ja) 自律移動装置
JP2015001863A (ja) 配達装置、自走型フィニッシャ、画像形成システム、及び配達プログラム
US11241790B2 (en) Autonomous moving body and control program for autonomous moving body
KR20190083727A (ko) 안내 로봇 및 그의 동작 방법
JP2018101191A (ja) 移動装置
JP2006113687A (ja) 自律移動システム
JP6609588B2 (ja) 自律型モビリティシステムおよび自律型モビリティの制御方法
CN112631269A (zh) 自主移动机器人及自主移动机器人的控制程序
JP2019084641A (ja) 自律移動ロボット、並びに、その制御装置及び動作制御プログラム
JP5314788B2 (ja) 自律移動装置
US20230294288A1 (en) Regulated region management system, mobile body management system, regulated region management method, and non-transitory storage medium
JP7095220B2 (ja) ロボット制御システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20201102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210203

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210629